Resposta breu: Els desenvolupadors que utilitzen IA generativa són responsables de tot el sistema, no només del resultat del model. Quan la IA influeix en les decisions, el codi, la privadesa o la confiança dels usuaris, han de triar aplicacions segures, verificar els resultats, protegir les dades, reduir els danys i garantir que les persones puguin revisar, anul·lar i corregir els errors.
Conclusions clau:
Verificació : Tracta els resultats polits com a no fiables fins que les fonts, les proves o la revisió humana els confirmin.
Protecció de dades : minimitzar les dades puntuals, eliminar els identificadors i protegir els registres, els controls d'accés i els proveïdors.
Justícia : Proveu en diferents dades demogràfiques i contextos per detectar estereotips i patrons de fracàs desiguals.
Transparència : etiquetar clarament l'ús de la IA, explicar-ne els límits i oferir revisió o recurs humà.
Responsabilitat : Assignar responsables clars per a la implementació, els incidents, la supervisió i la reversió abans del llançament.

Articles que potser t'agradaria llegir després d'aquest:
🔗 Millors eines d'IA per a desenvolupadors de programari: els millors assistents de codificació amb tecnologia d'IA
Compareu els millors assistents de codificació d'IA per obtenir fluxos de treball de desenvolupament més ràpids i nets.
🔗 Les 10 millors eines d'IA per a desenvolupadors per augmentar la productivitat
Llista classificada d'eines d'IA per a desenvolupadors per a una codificació i una velocitat més intel·ligents.
🔗 Per què la IA pot ser perjudicial per a la societat i la confiança
Explica els danys del món real: biaix, privacitat, llocs de treball i riscos de desinformació.
🔗 La IA ha anat massa lluny en decisions d'alt risc?
Defineix quan la IA traspassa les línies: vigilància, deepfakes, persuasió, manca de consentiment.
Per què la responsabilitat dels desenvolupadors que utilitzen IA generativa és més important del que la gent pensa
Molts errors de programari són irritants. Un botó es trenca. Una pàgina carrega lentament. Alguna cosa es bloqueja i tothom gemega.
Els problemes d'IA generativa poden ser diferents. Poden ser subtils.
Un model pot semblar segur mentre s'equivoca. Perfil NIST GenAI Pot reproduir biaix sense signes d'advertència evidents. Perfil NIST GenAI Pot exposar dades sensibles si s'utilitza de manera descuidada. OWASP Top 10 per a aplicacions LLM Les vuit preguntes de l'ICO per a la IA generativa Pot produir codi que funciona, fins que falla en producció d'alguna manera profundament vergonyosa. OWASP Top 10 per a aplicacions LLM Una mica com contractar un becari molt entusiasta que mai dorm i de tant en tant inventa fets amb una confiança sorprenent.
És per això que la responsabilitat dels desenvolupadors que utilitzen IA generativa és més gran que la simple implementació. Els desenvolupadors ja no només construeixen sistemes lògics. Estan construint sistemes probabilístics amb vores difuses, resultats imprevisibles i conseqüències socials reals. NIST AI RMF
Això vol dir que la responsabilitat inclou:
-
comprensió dels límits del model NIST AI RMF
-
protecció de la privadesa dels usuaris orientació de l'ICO sobre IA i protecció de dades
-
reducció de les sortides nocives Perfil NIST GenAI
-
comprovació de l'exactitud abans d'atorgar confiança Perfil NIST GenAI
-
Aclariment del paper humà Principis d'IA de l'OCDE
-
disseny de vies de reserva quan la IA falla Principis de l'OCDE sobre IA Directrius segures de la NCSC sobre IA
-
documentant el sistema clarament Principis d'IA de l'OCDE
Ja saps com va: quan una eina sembla màgica, la gent deixa de qüestionar-la. Els desenvolupadors no es poden permetre estar tan relaxats.
Què fa que una bona versió de la responsabilitat dels desenvolupadors que utilitzen IA generativa sigui una bona versió? 🛠️
Una bona versió de la responsabilitat no és performativa. No es tracta només d'afegir una clàusula d'exempció de responsabilitat al final i anomenar-ho ètica. Es manifesta en les decisions de disseny, els hàbits de prova i el comportament del producte.
Així és com sol ser responsabilitat dels desenvolupadors que utilitzen IA generativa
-
Ús intencionat NIST AI RMF
-
La IA s'està utilitzant per a un problema real, no s'està introduint al producte perquè sona de moda.
-
-
Supervisió humana Principis de l'OCDE sobre la IA
-
La gent pot revisar, corregir, anul·lar o rebutjar els resultats.
-
-
Seguretat des del disseny Directrius d'IA segura del NCSC
-
Els controls de risc s'incorporen aviat i no s'apliquen amb cinta adhesiva més tard.
-
-
Transparència Principis de l'OCDE sobre la IA Comissió Europea Visió general de la Llei sobre la IA
-
Els usuaris entenen quan el contingut està generat per IA o assistit per IA.
-
-
Vuit preguntes de l'ICO sobre cura de dades
-
La informació sensible es tracta amb cura i l'accés és limitat.
-
-
Comprovació de l'imparcialitat del perfil GenAI del NIST. Guia de l'ICO sobre IA i protecció de dades.
-
El sistema es prova per detectar biaixos, rendiment desigual i patrons nocius.
-
-
Monitorització contínua NIST AI RMF NCSC directrius d'IA segura
-
El llançament no és la línia de meta. És més aviat com el xiulet inicial.
-
Si això sona a molt, doncs... ho és. Però això és el que passa quan treballes amb tecnologia que pot influir en les decisions, les creences i el comportament a gran escala. Principis d'IA de l'OCDE
Taula comparativa: la responsabilitat principal dels desenvolupadors que utilitzen IA generativa d'un cop d'ull 📋
| Àrea de responsabilitat | A qui afecta | Pràctica diària de desenvolupadors | Per què és important |
|---|---|---|---|
| Precisió i verificació | usuaris, equips, clients | Revisar els resultats, afegir capes de validació, provar casos límit | La IA pot ser fluïda i, tanmateix, molt equivocada, una combinació aproximada del perfil NIST GenAI. |
| Protecció de la privadesa | usuaris, clients, personal intern | Minimitzar l'ús de dades sensibles, esborrar indicacions, controlar els registres | Un cop es filtren dades privades, la pasta de dents ja no funciona 😬 Les vuit preguntes de l'ICO per a IA generativa OWASP Top 10 per a sol·licituds de LLM |
| Biaix i justícia | grups poc representats, tots els usuaris realment | Auditar els resultats, provar diverses entrades, ajustar les mesures de seguretat | El dany no sempre és sorollós; de vegades és sistemàtic i silenciós. Perfil GenAI del NIST. Guia de l'ICO sobre IA i protecció de dades. |
| Seguretat | sistemes de l'empresa, usuaris | Restringir l'accés al model, defensar-se contra la injecció ràpida, crear un sandbox d'accions arriscades | Una vulnerabilitat intel·ligent pot arruïnar la confiança ràpidament. Els 10 millors de l'OWASP per a aplicacions LLM. El NCSC sobre IA i ciberseguretat. |
| Transparència | usuaris finals, reguladors, equips de suport | Etiquetar clarament el comportament de la IA, explicar els límits, documentar l'ús | La gent mereix saber quan la màquina està ajudant. dels Principis d'IA de l'OCDE sobre el marcatge i l'etiquetatge de contingut generat per IA. |
| Responsabilitat | propietaris de productes, legal, equips de desenvolupament | Definir la propietat, la gestió d'incidents i les vies d'escalada | «La IA ho va fer» no és una resposta adulta. Principis de l'OCDE sobre la IA. |
| Fiabilitat | tothom que toqui el producte | Monitoritzar errors, establir llindars de confiança, crear lògica de reserva | Els models deriven, fallen de maneres inesperades i de tant en tant tenen un petit episodi dramàtic. Directrius d'IA segura del NIST AI RMF |
| Benestar de l'usuari | usuaris vulnerables, especialment | Evitar el disseny manipulatiu, limitar els resultats nocius, revisar els casos d'ús d'alt risc | El fet que alguna cosa es pugui generar no vol dir que s'hagi de generar. Principis d'IA de l'OCDE. NIST AI RMF. |
Una taula una mica desigual, és clar, però això s'adapta al tema. La responsabilitat real també és desigual.
La responsabilitat comença abans de la primera indicació: triar el cas d'ús adequat 🎯
Una de les responsabilitats més importants dels desenvolupadors és decidir si s'ha d'utilitzar la IA generativa . NIST AI RMF
Això sona obvi, però es passa per alt tot el temps. Els equips veuen un model, s'entusiasmen i comencen a forçar-lo en fluxos de treball que es gestionarien millor amb regles, cerca o lògica de programari ordinària. No tots els problemes necessiten un model de llenguatge. Alguns problemes necessiten una base de dades i una tarda tranquil·la.
Abans de construir, els desenvolupadors s'haurien de preguntar:
-
La tasca és oberta o determinista?
-
Una sortida incorrecta podria causar danys?
-
Els usuaris necessiten creativitat, predicció, resum, automatització o només velocitat?
-
La gent confiarà massa en el resultat? Perfil GenAI del NIST
-
Pot un humà revisar els resultats de manera realista? Principis d'IA de l'OCDE
-
Què passa quan el model és incorrecte? Principis d'IA de l'OCDE
Un desenvolupador responsable no només pregunta: "Podem construir això?". Pregunten: "S'hauria de construir d'aquesta manera?" . NIST AI RMF
Aquesta pregunta per si sola evita moltes ximpleries brillants.
La precisió és una responsabilitat, no un avantatge ✅
Siguem clars: una de les trampes més grans de la IA generativa és confondre l'eloqüència amb la veritat. Els models sovint produeixen respostes que sonen polides, estructurades i profundament convincents. La qual cosa és encantadora, fins que el contingut no és més que una ximpleria embolicada en confiança. Perfil de GenAI del NIST
Per tant, la responsabilitat dels desenvolupadors que utilitzen IA generativa inclou la construcció per a la verificació.
Això vol dir:
-
utilitzant la recuperació o la connexió a terra sempre que sigui possible Perfil NIST GenAI
-
separar el contingut generat dels fets confirmats Principis de l'OCDE sobre la IA
-
afegint llindars de confiança amb cura NIST AI RMF
-
creació de fluxos de treball de revisió per a resultats d'alt risc (Principis d'IA de l'OCDE)
-
evitant que el model improvisi en contextos crítics Perfil NIST GenAI
-
indicacions de prova que intenten trencar o enganyar el sistema OWASP Top 10 per a sol·licituds de LLM
Això importa molt en àrees com:
-
assistència sanitària
-
finances
-
fluxos de treball legals
-
educació
-
atenció al client
-
automatització empresarial
-
generació de codi
El codi generat, per exemple, pot semblar ordenat mentre amaga defectes de seguretat o errors lògics. Un desenvolupador que el copia a cegues no és eficient, simplement està externalitzant el risc en un format més bonic. OWASP Top 10 per a aplicacions LLM NCSC sobre IA i ciberseguretat
El model pot ajudar. El desenvolupador continua sent el propietari del resultat. Principis d'IA de l'OCDE
La privadesa i la gestió de dades són innegociables 🔐
Aquí és on les coses es tornen serioses ràpidament. Els sistemes d'IA generativa sovint es basen en indicacions, registres, finestres de context, capes de memòria, anàlisis i infraestructura de tercers. Això crea moltes possibilitats que les dades sensibles es filtrin, persisteixin o es reutilitzin de maneres que els usuaris mai no havien esperat. Vuit preguntes de l'ICO per a IA generativa OWASP Top 10 per a aplicacions LLM
Els desenvolupadors tenen la responsabilitat de protegir:
-
informació personal
-
registres financers
-
detalls mèdics
-
dades internes de l'empresa
-
secrets comercials
-
tokens d'autenticació
-
comunicacions amb els clients
Les pràctiques responsables inclouen:
-
minimitzar les dades que entren al model. Les vuit preguntes de l'ICO per a la IA generativa
-
emmascarament o eliminació d'identificadors Perfil NIST GenAI
-
limitació de la retenció de registres, guia de l'ICO sobre IA i protecció de dades
-
Control de qui pot accedir a les indicacions i sortides. OWASP Top 10 per a aplicacions LLM.
-
Revisió acurada de la configuració del proveïdor Directrius d'IA segura del NCSC
-
Aïllament de fluxos de treball d'alt risc Directrius d'IA segura del NCSC
-
Fer visible el comportament de privadesa per als usuaris: les vuit preguntes de l'ICO per a la IA generativa
Aquesta és una d'aquelles àrees on "ens vam oblidar de pensar-hi" no és un error menor. És un fracàs que trenca la confiança.
I la confiança, un cop trencada, s'escampa com el vidre que cau. Potser no és la metàfora més elegant, però ja ho entens.
Biaix, justícia i representació: les responsabilitats més discretes ⚖️
El biaix en la IA generativa rarament és un dolent de dibuixos animats. Normalment és més esmunyedís que això. Un model pot produir descripcions de feina estereotipades, decisions de moderació desiguals, recomanacions desequilibrades o suposicions culturalment estretes sense fer saltar alarmes òbvies. Perfil de GenAI del NIST
És per això que la responsabilitat dels desenvolupadors que utilitzen IA generativa inclou un treball actiu d'equitat.
Els desenvolupadors haurien de:
-
preguntes de prova de diferents grups demogràfics i contextos Perfil NIST GenAI
-
Revisió dels resultats per estereotips i exclusió del perfil NIST GenAI
-
Involucrar diverses perspectives durant l'avaluació NIST AI RMF
-
Vigileu els patrons de fallada desiguals Perfil NIST GenAI
-
Eviteu assumir que un estil lingüístic o una norma cultural s'adapta a tothom. Guia de l'ICO sobre IA i protecció de dades.
-
crear canals de denúncia per a resultats nocius NIST AI RMF
Un sistema pot semblar que funciona bé en general mentre que constantment serveix pitjor a alguns usuaris que a d'altres. Això no és acceptable només perquè el rendiment mitjà es veu bé en un tauler de control. Guia de l'ICO sobre IA i protecció de dades Perfil GenAI del NIST
I sí, la justícia és més difícil que una llista de comprovació ordenada. Conté criteri. Context. Compromisos. També una mica d'incomoditat. Però això no elimina la responsabilitat, sinó que la confirma. Guia de l'ICO sobre IA i protecció de dades.
La seguretat ara és en part disseny ràpid, en part disciplina d'enginyeria 🧱
La seguretat de la IA generativa té la seva pròpia peculiaritat. La seguretat de les aplicacions tradicionals encara és important, és clar, però els sistemes d'IA afegeixen superfícies d'atac inusuals: injecció de prompts, manipulació indirecta de prompts, ús d'eines insegur, exfiltració de dades a través del context i mal ús del model a través de fluxos de treball automatitzats. OWASP Top 10 per a aplicacions LLM NCSC sobre IA i ciberseguretat
Els desenvolupadors són responsables de protegir tot el sistema, no només la interfície. Directrius d'IA segura del NCSC
Les responsabilitats clau aquí inclouen:
-
sanejament d'entrada no fiable OWASP Top 10 per a aplicacions LLM
-
limitant quines eines el model pot anomenar OWASP Top 10 per a aplicacions LLM
-
Restriccions d'accés a fitxers i a la xarxa Directrius d'IA segura del NCSC
-
separar clarament els permisos directrius d'IA segura del NCSC
-
Monitorització de patrons d'abús Directrius d'IA segura del NCSC
-
accions limitants de la velocitat, costoses o arriscades, OWASP Top 10 per a sol·licituds de LLM
-
Prova de preguntes contradictòries. Els 10 millors de l'OWASP per a sol·licituds de LLM.
-
Creació de solucions segures quan les instruccions entren en conflicte amb els Principis d'IA de l'OCDE
Una veritat incòmoda és que els usuaris (i els atacants) sens dubte provaran coses que els desenvolupadors no esperaven. Alguns per curiositat, altres per malícia, alguns perquè van fer clic a l'element equivocat a les 2 de la matinada. Passa.
La seguretat per a la IA generativa s'assembla menys a construir un mur i més a gestionar un guardià molt loquaç que de vegades és enganyat per frases fetes.
La transparència i el consentiment de l'usuari importen més que una experiència d'usuari cridanera 🗣️
Quan els usuaris interactuen amb la IA, ho haurien de saber. dels Principis d'IA de l'OCDE sobre el marcatge i l'etiquetatge de contingut generat per IA
No vagament. No enterrat en termes. Clarament.
Una part fonamental de la responsabilitat dels desenvolupadors que utilitzen IA generativa és assegurar-se que els usuaris entenguin:
-
quan s'utilitza la IA Principis de l'OCDE sobre la IA
-
Què pot i què no pot fer la IA Principis de l'OCDE sobre IA
-
si els resultats són revisats per humans Principis de l'OCDE sobre la IA
-
com es processen les seves dades, les vuit preguntes de l'ICO per a la IA generativa
-
quin nivell de confiança haurien de tenir segons el NIST AI RMF
-
Com informar de problemes o apel·lar decisions Principis d'IA de l'OCDE NIST AI RMF
La transparència no es tracta d'espantar els usuaris. Es tracta de respectar-los.
Una bona transparència podria incloure:
-
etiquetes com ara el Codi de bones pràctiques sobre el marcatge i l'etiquetatge de contingut generat
-
explicacions en llenguatge planer Principis de l'OCDE sobre IA
-
historials d'edició visibles on sigui pertinent
-
opcions per desactivar les funcions d'IA
-
escalada a un humà quan sigui necessari Principis de l'OCDE sobre IA
-
Avisos concisos per a tasques d'alt risc. Visió general de la Llei d'IA de la Comissió Europea.
Molts equips de producte es preocupen que l'honestedat faci que la funció sembli menys màgica. Potser. Però la falsa certesa és pitjor. Una interfície fluida que amaga el risc és bàsicament confusió polida.
Els desenvolupadors segueixen sent responsables, fins i tot quan el model "decideix" 👀
Aquesta part és molt important. La responsabilitat no es pot externalitzar al proveïdor del model, a la targeta del model, a la plantilla de sol·licitud o a l'atmosfera misteriosa de l'aprenentatge automàtic. Principis d'IA de l'OCDE NIST AI RMF
Els desenvolupadors continuen sent responsables. Principis d'IA de l'OCDE
Això vol dir que algú de l'equip hauria de ser el propietari de:
-
selecció de models NIST AI RMF
-
estàndards de prova NIST GenAI Profile
-
criteris de publicació NIST GenAI Profile
-
Directrius d'IA segura del NCSC per a la resposta a incidents
-
gestió de queixes d'usuaris NIST AI RMF
-
Procediments de desmantelament Principis de l'OCDE sobre la IA
-
seguiment de canvis Principis de l'OCDE per a la IA
-
documentació Principis de l'OCDE sobre IA
Hi hauria d'haver respostes clares a preguntes com ara:
-
Qui aprova el desplegament? Perfil GenAI del NIST
-
Qui revisa els incidents amb resultats nocius? Perfil GenAI del NIST
-
Qui pot desactivar la funció? Principis d'IA de l'OCDE
-
Qui supervisa les regressions? NIST AI RMF
-
Qui es comunica amb els usuaris quan alguna cosa falla? Principis d'IA de l'OCDE
Sense propietat, la responsabilitat es converteix en boira. Tothom assumeix que algú altre s'encarrega... i aleshores ningú ho fa.
Aquest patró és més antic que la IA, en realitat. La IA simplement la fa més perillosa.
Els desenvolupadors responsables construeixen per a la correcció, no per a la perfecció 🔄
Aquí teniu el petit gir de tot això: el desenvolupament responsable de la IA no consisteix a fingir que el sistema serà perfecte. Es tracta d'assumir que fallarà d'alguna manera i dissenyar al voltant d'aquesta realitat. NIST AI RMF
Això significa construir productes que siguin:
-
Principis d'IA auditables
-
les decisions i els resultats es poden revisar més tard
-
-
Principis d'IA interrompible
-
els humans poden aturar o anul·lar el mal comportament
-
-
Principis de l'OCDE sobre la IA recuperables
-
hi ha una recuperació quan la sortida de la IA és incorrecta
-
-
Directrius d'IA segura del NCSC monitorables RMF de la IA del NIST
-
els equips poden detectar patrons abans que es converteixin en desastres
-
-
Perfil GenAI NIST millorable
-
existeixen bucles de retroalimentació i algú els llegeix
-
Això és el que significa la maduresa. No demostracions brillants. No textos de màrqueting que et deixin sense alè. Sistemes reals, amb barreres de seguretat, registres, responsabilitat i prou humilitat per admetre que la màquina no és un mag. Directrius d'IA segura del NCSC. Principis d'IA de l'OCDE.
Perquè no ho és. És una eina. Una eina poderosa, sí. Però tot i així una eina.
Reflexió final sobre la responsabilitat dels desenvolupadors que utilitzen la IA generativa 🌍
Aleshores, quina és la responsabilitat dels desenvolupadors que utilitzen IA generativa ?
Es tracta de construir amb cura. Qüestionar on el sistema ajuda i on perjudica. Protegir la privadesa. Comprovar si hi ha biaixos. Verificar els resultats. Assegurar el flux de treball. Ser transparent amb els usuaris. Mantenir els humans en un control significatiu. Ser responsable quan les coses van malament. NIST AI RMF OCDE AI Principles
Això pot semblar pesat, i ho és. Però també és el que separa el desenvolupament reflexiu de l'automatització imprudent.
Els millors desenvolupadors que utilitzen IA generativa no són els que fan que el model executi més trucs. Són els que entenen les conseqüències d'aquests trucs i dissenyen en conseqüència. Saben que la velocitat importa, però la confiança és el producte real. Curiosament, aquesta idea antiquada encara es manté. NIST AI RMF
Al final, la responsabilitat no és una barrera per a la innovació. És el que impedeix que la innovació es converteixi en una expansió costosa i turbulenta amb una interfície polida i un problema de confiança 😬✨
I potser aquesta és la versió més senzilla.
Construir amb audàcia, és clar, però construir com si les persones poguessin veure's afectades, perquè ho estan fent. Principis d'IA de l'OCDE
Preguntes freqüents
Quina és la responsabilitat dels desenvolupadors que utilitzen la IA generativa a la pràctica?
La responsabilitat dels desenvolupadors que utilitzen IA generativa va molt més enllà del lliurament ràpid de funcions. Inclou l'elecció del cas d'ús adequat, la prova dels resultats, la protecció de la privadesa, la reducció del comportament nociu i fer que el sistema sigui comprensible per als usuaris. A la pràctica, els desenvolupadors continuen sent responsables de com es dissenya, supervisa, corregeix i governa l'eina quan falla.
Per què la IA generativa requereix més responsabilitat de desenvolupament que el programari normal?
Els errors tradicionals sovint són evidents, però els errors de la IA generativa poden semblar refinats i, alhora, ser erronis, esbiaixats o arriscats. Això fa que els problemes siguin més difícils de detectar i que els usuaris puguin confiar-hi per error. Els desenvolupadors treballen amb sistemes probabilístics, de manera que la responsabilitat inclou gestionar la incertesa, limitar els danys i preparar-se per a resultats imprevisibles abans del llançament.
Com saben els desenvolupadors quan no s'ha d'utilitzar la IA generativa?
Un punt de partida habitual és preguntar-se si la tasca és oberta o si es gestiona millor mitjançant regles, cerca o lògica de programari estàndard. Els desenvolupadors també haurien de tenir en compte quant de mal podria causar una resposta incorrecta i si un humà pot revisar els resultats de manera realista. L'ús responsable de vegades significa decidir no utilitzar en absolut la IA generativa.
Com poden els desenvolupadors reduir les al·lucinacions i les respostes incorrectes en sistemes d'IA generativa?
La precisió s'ha de dissenyar, no s'ha de suposar. En molts processos de producció, això significa basar els resultats en fonts fiables, separar el text generat dels fets verificats i utilitzar fluxos de treball de revisió per a tasques de més risc. Els desenvolupadors també haurien de provar les indicacions destinades a confondre o enganyar el sistema, especialment en àrees com el codi, el suport, les finances, l'educació i l'atenció mèdica.
Quina és la responsabilitat dels desenvolupadors que utilitzen IA generativa pel que fa a la privadesa i les dades sensibles?
La responsabilitat dels desenvolupadors que utilitzen IA generativa inclou minimitzar les dades que entren al model i tractar les indicacions, els registres i els resultats com a sensibles. Els desenvolupadors haurien d'eliminar els identificadors sempre que sigui possible, limitar la retenció, controlar l'accés i revisar la configuració del proveïdor acuradament. Els usuaris també haurien de poder entendre com es gestionen les seves dades, en lloc de descobrir els riscos més tard.
Com haurien de gestionar els desenvolupadors el biaix i la imparcialitat en els resultats de la IA generativa?
El treball sobre biaixos requereix una avaluació activa, no suposicions. Un enfocament pràctic és provar les indicacions en diferents grups demogràfics, idiomes i contextos, i després revisar els resultats per detectar estereotips, exclusions o patrons d'error desiguals. Els desenvolupadors també haurien de crear maneres perquè els usuaris o els equips puguin informar de comportaments nocius, perquè un sistema pot semblar fort en general i, alhora, fallar constantment a certs grups.
Quins riscos de seguretat han de tenir en compte els desenvolupadors amb la IA generativa?
La IA generativa introdueix noves superfícies d'atac, com ara la injecció ràpida, l'ús insegur d'eines, la filtració de dades a través del context i l'abús d'accions automatitzades. Els desenvolupadors haurien de sanejar les entrades no fiables, restringir els permisos de les eines, limitar l'accés a fitxers i a la xarxa i controlar els patrons d'ús indegut. La seguretat no només té a veure amb la interfície; s'aplica a tot el flux de treball al voltant del model.
Per què és important la transparència quan es construeix amb IA generativa?
Els usuaris haurien de saber clarament quan hi ha implicada la IA, què pot fer i on són els seus límits. Una bona transparència pot incloure etiquetes com ara generat per IA o assistit per IA, explicacions senzilles i vies clares per obtenir suport humà. Aquest tipus de franquesa no debilita el producte; ajuda els usuaris a calibrar la confiança i a prendre millors decisions.
Qui és responsable quan una funció d'IA generativa causa danys o fa alguna cosa malament?
Els desenvolupadors i els equips de producte continuen sent els responsables del resultat, fins i tot quan el model produeix la resposta. Això significa que hi hauria d'haver una responsabilitat clara per a l'aprovació del desplegament, la gestió d'incidents, la reversió, la supervisió i la comunicació amb els usuaris. "El model decidit" no és suficient, perquè la responsabilitat ha de romandre en mans de les persones que van dissenyar i llançar el sistema.
Com serà el desenvolupament responsable d'IA generativa després del seu llançament?
El desenvolupament responsable continua després del llançament mitjançant la supervisió, la retroalimentació, la revisió i la correcció. Els sistemes forts són auditables, interrompibles, recuperables i dissenyats amb vies de reserva quan la IA falla. L'objectiu no és la perfecció; és construir alguna cosa que es pugui examinar, millorar i ajustar de manera segura a mesura que apareixen problemes del món real.
Referències
-
Institut Nacional d'Estàndards i Tecnologia (NIST) - Perfil GenAI del NIST - nvlpubs.nist.gov
-
OWASP - Els 10 millors de l'OWASP per a sol·licituds de LLM - owasp.org
-
Oficina del Comissionat d'Informació (ICO) : les vuit preguntes de l'ICO per a la IA generativa - ico.org.uk