Resposta breu: no hi ha un únic percentatge acceptable d'IA. El nivell adequat depèn del que està en joc, del que la IA ha donat forma i de si un humà continua sent responsable. La participació de la IA pot ser substancial en el treball intern de baix risc quan es verifiquen els fets, però hauria de ser limitada quan els errors podrien induir a error, causar danys o simular experiència.
Punts principals:
Responsabilitat : Assigneu una persona amb nom propi a cada resultat final que publiqueu.
Nivell de risc : Utilitzeu més IA per a tasques internes de baix risc i menys per a treballs sensibles de cara al públic.
Verificació : reviseu totes les afirmacions, números, cites i referències abans de publicar contingut assistit per IA.
Transparència : Divulgueu la implicació de la IA quan l'automatització oculta pugui fer que el públic se senti enganyat.
Control per veu : deixa que la IA doni suport a l'estructura i l'edició, mentre que el criteri i l'estil humans mantenen el control.

🔖 També et pot agradar:
🔗 Què és l'ètica de la IA?
Explica els principis de la IA responsable, la justícia, la transparència i els conceptes bàsics de la rendició de comptes.
🔗 Què és el biaix de la IA?
Cobreix els tipus de biaix, les causes, els impactes i els enfocaments de mitigació.
🔗 Què és l'escalabilitat de la IA?
Desglossa l'escalabilitat dels sistemes d'IA, el rendiment, el cost i les necessitats d'infraestructura.
🔗 Què és la IA predictiva?
Defineix la IA predictiva, els casos d'ús clau, els models i els beneficis.
Per què "Quin percentatge d'IA és acceptable?" és ara una pregunta 🤔
No fa gaire, "ajuda amb IA" significava autocorrector i corrector ortogràfic. Ara pot generar idees, esquematitzar, escriure, reescriure, resumir, traduir, generar imatges, ordenar fulls de càlcul, codificar i criticar educadament les males frases. Per tant, la pregunta no és si la IA hi està involucrada, sinó que ja hi està.
La pregunta diu més aviat:
-
On rau la responsabilitat. (Tu, el teu equip, el teu editor, l'eina...) Principis d'IA de l'OCDE
-
Què es produeix? (Un poema, una nota mèdica, una política legal, un assaig escolar...) Guia de l'OMS sobre la IA generativa en salut
-
Qui ho llegeix i per què? (Clients, estudiants, votants, pacients, el vostre cap.)
-
Què pot sortir malament. (Desinformació, vibracions de plagi, problemes de compliment, danys a la marca.) OpenAI: per què els models lingüístics al·lucinen. Guia d'IA de l'Oficina de Drets d'Autor dels EUA.
I, d'una manera lleugerament perversa, el "percentatge" pot importar menys que allò que ha tocat la IA. Afegir IA a les "variacions dels titulars" no és el mateix que afegir IA a "l'assessorament financer", fins i tot si tècnicament tots dos són un 30% d'IA o el que sigui. 🙃
Què fa que una bona versió d'un "percentatge d'IA acceptable" sigui ✅
Si estem construint una "bona versió" d'aquest concepte, ha de funcionar a la pràctica diària, no només semblar filosòficament ordenat.
Un bon marc de treball per a Quin percentatge d'IA és acceptable? es manté:
-
Consciència del context : diferents feines, diferents riscos. NIST AI RMF 1.0
-
Basat en resultats : la precisió, l'originalitat i el valor pràctic importen més que les proves de puresa.
-
Auditable : pots explicar què ha passat si algú et pregunta. Principis d'IA de l'OCDE
-
Propietat humana : una persona real és responsable del resultat final (sí, fins i tot si és molest). Principis d'IA de l'OCDE
-
Respectuós amb el públic : la gent odia sentir-se enganyada, fins i tot quan el contingut està "ben". Recomanació de la UNESCO sobre l'ètica de la IA
A més, no hauria de requerir gimnàstica mental com ara "Aquesta frase tenia un 40% d'IA o un 60%?" perquè aquest camí acaba en bogeria... com intentar mesurar quanta part d'una lasanya té "formatge". 🧀
Una manera senzilla de definir el "percentatge d'IA" sense perdre el cap 📏
Abans de les comparacions, aquí teniu un model sensat. Penseu en l'ús de la IA en capes:
-
Capa d'idees (pluja d'idees, propostes, esquemes)
-
Capa d'esborrany (escriptura en primera passada, estructura, expansions)
-
Edita la capa (edicions de claredat, suavització de to, gramàtica)
-
Capa de dades (afirmacions, estadístiques, cites, especificitat)
-
Capa de veu (estil, humor, personalitat de la marca, experiència viscuda)
Si la IA toca fortament la capa de fets, el percentatge acceptable sol baixar ràpidament. Si la IA es troba principalment a les capes d'idees + edició, la gent tendeix a estar més relaxada. OpenAI: per què els models de llenguatge al·lucinen amb el perfil NIST GenAI (AI RMF).
Així doncs, quan algú pregunta quin percentatge d'IA és acceptable?, ho tradueixo com:
quines capes estan assistides per IA i quin risc tenen aquestes capes en aquest context? 🧠
Taula comparativa: "receptes" comunes d'ús de la IA i on encaixen 🍳
Aquí teniu una guia pràctica. Inclou alguns petits problemes de formatació perquè les taules reals mai són perfectes, oi?.
| eina / enfocament | públic | preu | per què funciona |
|---|---|---|---|
| Només pluja d'idees amb IA | escriptors, professionals del màrqueting, fundadors | de gratuït a de pagament | Manté l'originalitat humana, la IA només genera idees, com un company de feina sorollós amb un cafè exprés |
| Esquema d'IA + esborrany humà | bloguers, equips, estudiants (èticament) | baix a mitjà | L'estructura s'accelera, la veu continua sent teva. Bastant segur si es verifiquen els fets |
| Esborrany humà + passada d'edició per IA | la majoria de professionals | baix | Genial per a la claredat i el to. El risc es manté baix si no permets que "inventi" detalls. OpenAI: ChatGPT diu la veritat? |
| Primer esborrany d'IA + reescriptura humana pesada | equips ocupats, operacions de contingut | mig | Ràpid, però requereix disciplina. Si no, envies una pasta insípida... ho sento 😬 |
| Traducció per IA + revisió humana | equips globals, suport | mig | Bona velocitat, però el matís local pot ser lleugerament diferent, com ara sabates que gairebé encaixen bé |
| Resums d'IA per a notes internes | reunions, recerca, actualitzacions d'executius | baix | Guanyar eficiència. Tot i així: confirmar decisions clau, perquè els resums poden ser "creatius" OpenAI: per què els models de llenguatge al·lucinen |
| Assessorament "expert" generat per IA | públics | varia | Alt risc. Sembla segur fins i tot quan s'equivoca, cosa que és una combinació desoladora OMS: Ètica i governança de la IA per a la salut. |
| Contingut públic generat completament per IA | llocs web de correu brossa, contingut de baix risc | baix | És escalable, és clar, però la confiança i la diferenciació sovint pateixen a llarg termini Recomanació de la UNESCO sobre l'ètica de la IA |
T'adonaràs que no tracto la "IA completa" com a inherentment malvada. Simplement... sovint és fràgil, genèrica i posa en perill la reputació quan s'enfronta a humans. 👀
Percentatges d'IA acceptables per escenari: els rangs realistes 🎛️
D'acord, parlem de xifres, no com a llei, sinó com a barreres de seguretat. Són rangs de "necessito sobreviure en el dia a dia".
1) Contingut de màrqueting i blogs ✍️
-
Sovint acceptable: del 20% al 60% de suport per a la IA
-
El risc augmenta quan: les afirmacions es tornen específiques, les comparacions es tornen agressives, apareixen testimonis o ho presenteu com a "experiència personal viscuda" Comentari de la FTC que fa referència a riscos d'afirmacions de màrqueting per IA Guia de l'Oficina de Drets d'Autor dels EUA sobre IA
La IA et pot ajudar a avançar més ràpid, però el públic pot olorar contingut genèric de la mateixa manera que els gossos oloren por. La meva metàfora maldestra és: els textos de màrqueting amb molta IA són com colònia ruixada sobre roba bruta: ho intenta, però alguna cosa no va bé. 😭
2) Treballs acadèmics i lliuraments dels estudiants 🎓
-
Sovint acceptable: del 0% al 30% (segons les regles i la tasca)
-
Usos més segurs: pluja d'idees, esquemes, revisió gramatical, explicacions d'estudi
-
El risc augmenta quan: la IA escriu els arguments, l'anàlisi o el "pensament original" DfE: IA generativa en educació
Un gran problema no és només la justícia, sinó l'aprenentatge. Si la IA és qui pensa, el cervell de l'estudiant s'asseu al banc menjant rodanxes de taronja.
3) Redacció per al lloc de treball (correus electrònics, documents, SOP, notes internes) 🧾
-
Sovint acceptable: del 30% al 80%
-
Per què tan alt? L'escriptura interna es basa en la claredat i la velocitat, no en la puresa literària.
-
El risc augmenta quan: el llenguatge de la política té implicacions legals o la precisió de les dades és important NIST AI RMF 1.0
Moltes empreses ja operen discretament amb "alta assistència d'IA". Simplement no ho anomenen així. És més aviat com "estem sent eficients", cosa que, és just.
4) Atenció al client i respostes al xat 💬
-
Sovint acceptable: del 40% al 90% amb baranes de protecció
-
Innegociable: camins d'escalada, base de coneixement aprovada, revisió sòlida per a casos límit
-
El risc augmenta quan: la IA fa promeses, reemborsaments o excepcions a polítiques OpenAI: ChatGPT diu la veritat? Perfil NIST GenAI (AI RMF)
Als clients no els importa l'ajuda ràpida. Els importa l'ajuda incorrecta. Els importa encara més l'ajuda incorrecta amb confiança.
5) Periodisme, informació pública, salut, temes jurídics 🧠⚠️
-
Sovint acceptable: 0% a 25% d'assistència d'escriptura amb IA
-
Més acceptable: IA per a transcripcions, resums aproximats, organització
-
El risc augmenta quan: la IA "omple buits" o suavitza la incertesa en falsa certesa AP: Estàndards al voltant de la IA generativa Orientació de l'OMS sobre la IA generativa en salut
Aquí, el "percentatge" no és la perspectiva adequada. Voleu control editorial humà i una verificació sòlida. La IA pot ajudar, però no hauria de ser el cervell decisiu. Codi d'ètica de SPJ
El factor confiança: per què la divulgació canvia el percentatge acceptable 🧡
La gent no només jutja el contingut per la seva qualitat. El jutja per la relació . I la relació comporta sentiments. (Molest, però cert.)
Si el vostre públic creu:
-
ets transparent,
-
ets responsable,
-
No estàs fingint experiència,
...llavors sovint pots utilitzar més IA sense contraccions.
Però si el vostre públic percep:
-
automatització oculta,
-
falses "històries personals",
-
autoritat fabricada,
...llavors fins i tot una petita contribució d'IA pot desencadenar una reacció de "no, me'n vaig". El dilema de la transparència: divulgació i confiança en IA (Schilke, 2025) Article de l'Oxford Reuters Institute sobre divulgació i confiança en IA (2024)
Així doncs, quan pregunteu Quin percentatge d'IA és acceptable?, incloeu aquesta variable oculta:
-
Molta confiança en el compte bancari? Pots gastar més en IA.
-
Poca confiança en el compte bancari? La IA es converteix en una lupa que analitza tot el que fas.
El "problema de la veu": per què el percentatge d'IA pot aplanar silenciosament la teva feina 😵💫
Fins i tot quan la IA és precisa, sovint suavitza les vores. I les vores són on viu la personalitat.
Símptomes de massa IA a la capa de veu:
-
Tot sona educadament optimista, com si intentés vendre't un sofà beix
-
Els acudits cauen... però després disculpa't
-
Les opinions fortes es dilueixen en "depèn"
-
Les experiències específiques es converteixen en "molta gent diu"
-
La teva escriptura perd petites peculiaritats idiosincràtiques (que normalment són el teu avantatge)
Per això moltes estratègies d'IA "acceptables" tenen aquest aspecte:
-
La IA ajuda amb l'estructura i la claredat
-
Els humans proporcionen gust + judici + història + postura 😤
Perquè el gust és la part més difícil d'automatitzar sense convertir-lo en farina de civada.
Com establir una política de percentatge d'IA que no implosi al primer argument 🧩
Si ho fas per a tu mateix o per a un equip, no escriguis una política com ara:
"No més del 30% d'IA."
La gent preguntarà immediatament: "Com mesurem això?" i llavors tothom es cansa i torna a improvisar.
En comptes d'això, estableix regles per capa i risc : NIST AI RMF 1.0 Principis d'IA de l'OCDE
Una plantilla de política viable (roba això)
-
La IA permet: pluja d'idees, esquemes, correccions de claredat, formatació, esborranys de traducció ✅
-
IA restringida per a: anàlisi original, afirmacions finals, temes sensibles, "assessorament expert" de cara al públic ⚠️ OMS: Ètica i governança de la IA per a la salut
-
Sempre obligatori: revisió humana, comprovació de dades per a detalls específics, aprovació de responsabilitats 🧍
-
Mai permès: testimonis falsos, credencials inventades, històries inventades de "Ho he provat" 😬 Comentari de la FTC que fa referència a afirmacions enganyoses sobre IA Reuters: Mesures repressives de la FTC contra les afirmacions enganyoses sobre IA (2024-09-25)
Aleshores, si necessiteu un número, afegiu intervals:
-
Intern de baix risc: fins a "assistència alta"
-
Contingut públic: «assistència moderada»
-
Informació d'alt risc: "assistència mínima"
Sí, és borrós. La vida és borrosa. Intentar fer-la nítida és com acabes amb regles absurdes que ningú segueix. 🙃
Una llista d'autocomprovació pràctica per a "Quin percentatge d'IA és acceptable?" 🧠✅
Quan decideixis si l'ús de la IA és acceptable, comprova això:
-
Pots defensar el procés en veu alta sense embuts.
-
La IA no ha introduït cap afirmació que no hagis verificat. OpenAI: ChatGPT diu la veritat?
-
La sortida sona com tu, no com un anunci d'aeroport.
-
Si algú aprengués que la IA ajuda, no se sentiria enganyat. Reuters i la IA (enfocament de transparència)
-
Si això és incorrecte, podeu anomenar qui ha resultat perjudicat i amb quina gravetat. NIST AI RMF 1.0
-
Has afegit un valor genuí, en comptes de prémer Generar i enviar-lo.
Si aterren netament, el teu "percentatge" probablement està bé.
També, una petita confessió: de vegades, l'ús més ètic de la IA és estalviar energia per a les parts que requereixen un cervell humà. Les parts difícils. Les parts més complicades. Les parts de "he de decidir què crec". 🧠✨
Resum ràpid i notes finals 🧾🙂
Aleshores, quin percentatge d'IA és acceptable? depèn menys de les matemàtiques i més de les apostes, les capes, la verificació i la confiança . NIST AI RMF 1.0
Si voleu menjar per emportar senzill:
-
Pocs riscos + treball intern: la IA pot ser una gran part (fins i tot la major part) si un humà és responsable. Principis de l'OCDE sobre IA.
-
Contingut públic: la IA està bé en rols de suport, però el judici humà ha de guiar el missatge.
-
Informació d'alt risc (salut, legal, seguretat, periodisme): mantenir l'assistència de la IA mínima i supervisar estrictament les directrius de l'OMS sobre la IA generativa en salut AP: Estàndards al voltant de la IA generativa
-
No utilitzeu mai la IA per falsificar experiències viscudes, credencials o resultats : aquí és on mor la confiança 😬 Comentari de la FTC que fa referència a afirmacions enganyoses sobre IA Guia de l'Oficina de Drets d'Autor dels EUA sobre IA
I aquí teniu la meva exageració lleugerament dramàtica (perquè els humans ho fem):
si la vostra feina es basa en la confiança, aleshores la "IA acceptable" és allò que encara protegeix aquesta confiança quan ningú no mira. Recomanació de la UNESCO sobre l'ètica de la IA
Aquí teniu una versió més ajustada i cohesionada de les vostres preguntes freqüents:
Preguntes freqüents
Quin percentatge d'IA és acceptable en la majoria de tipus de treball?
No hi ha un percentatge únic que s'adapti a totes les tasques. Un millor estàndard és jutjar l'ús de la IA segons els riscos que implica, el risc d'error, les expectatives del públic i la part del treball que la IA ha ajudat a produir. Un percentatge alt pot ser perfectament correcte per a notes internes, mentre que un percentatge molt més baix és més prudent per a material dirigit al públic o sensible.
Com puc mesurar l'ús de la IA sense obsessionar-me amb els percentatges exactes?
Un enfocament pràctic és pensar per capes en lloc d'intentar assignar un número a cada frase. Aquest article emmarca l'ús de la IA en les capes d'idea, esborrany, edició, fets i veu. Això fa que el risc sigui més fàcil d'avaluar, ja que la participació de la IA en els fets o la veu personal sol ser més important que l'ajuda amb la pluja d'idees o la gramàtica.
Quin percentatge d'IA és acceptable per a publicacions de blog i contingut de màrqueting?
Per a les entrades de blog i el màrqueting, pot ser factible un ampli rang de suport d'IA d'entre un 20% i un 60%. La IA pot ajudar amb els esquemes, l'estructura i la neteja, sempre que un humà continuï controlant la veu i verifiant les afirmacions. El risc augmenta ràpidament quan el contingut inclou comparacions sòlides, testimonis o llenguatge que implica experiència personal.
Està bé utilitzar la IA per a tasques escolars o escriptura acadèmica?
En entorns acadèmics, l'ús acceptable sovint és molt més baix, generalment entre el 0% i el 30%, depenent de les normes i la tasca. Usos més segurs inclouen la pluja d'idees, l'elaboració d'esquemes, el suport gramatical i l'ajuda a l'estudi. Els problemes comencen quan la IA proporciona l'anàlisi, l'argument o el pensament original que s'espera que produeixi l'estudiant.
Quanta IA és acceptable per a documents i correus electrònics interns del lloc de treball?
L'escriptura al lloc de treball sovint és una de les categories més flexibles, amb una assistència d'IA habitual d'entre un 30% i un 80%. Molts documents interns es jutgen més per la claredat i la rapidesa que per l'originalitat. Tot i això, la revisió humana encara és important quan el material inclou llenguatge polític, detalls sensibles o afirmacions factuals importants.
Els equips d'atenció al client poden confiar molt en les respostes d'IA?
En molts fluxos de treball, sí, tot i que només amb barreres de seguretat sòlides. L'article suggereix aproximadament entre un 40% i un 90% de suport d'IA per a les respostes dels clients quan els equips tenen vies d'escalada, fonts de coneixement aprovades i revisió de casos inusuals. El perill més gran no és l'automatització en si mateixa, sinó que la IA faci promeses, excepcions o compromisos segurs que mai no s'havia previst que fes.
Quin percentatge d'IA és acceptable per a la salut, el dret, el periodisme o altres temes d'alt risc?
En camps d'alt risc, la pregunta del percentatge importa menys que la pregunta de control. La IA pot ajudar amb la transcripció, els resums aproximats o l'organització, però el judici final i la verificació han de seguir sent fermament humans. En aquestes àrees, l'ajuda acceptable per a l'escriptura amb IA sovint es manté mínima, al voltant del 0% al 25%, perquè el cost d'un error de confiança és molt més alt.
Revelar l'ús de la IA fa que la gent l'accepti més?
En molts casos, la transparència configura la reacció més que el percentatge brut. La gent tendeix a sentir-se més còmoda amb l'assistència de la IA quan el procés es percep obert, responsable i no disfressat d'experiència humana o experiència viscuda. Fins i tot una petita quantitat d'automatització oculta pot erosionar la confiança quan els lectors se senten enganyats sobre qui va crear l'obra.
Per què la IA de vegades fa que l'escriptura sembli plana fins i tot quan és tècnicament correcta?
L'article descriu això com un problema de veu. La IA sovint suavitza la prosa fins a convertir-la en quelcom polit però genèric, cosa que pot perdre humor, convicció, especificitat i caràcter individual. És per això que molts equips permeten que la IA doni suport a l'estructura i la claredat mentre que l'ésser humà conserva el control del gust, el judici, la narrativa i els punts de vista sòlids.
Com pot un equip establir una política d'IA que la gent seguirà?
Una política viable normalment se centra en les tasques i el risc en lloc d'un límit percentual rígid. L'article recomana permetre la IA per a la pluja d'idees, l'esquema, l'edició, el format i la traducció d'esborranys, mentre que restringir-la per a l'anàlisi original, els temes sensibles i l'assessorament d'experts. També hauria d'exigir la revisió humana, la verificació de fets, la responsabilitat i una prohibició clara dels testimonis fabricats o l'experiència inventada.
Referències
-
Organització Mundial de la Salut (OMS) - Guia de l'OMS sobre la IA generativa en la salut - who.int
-
Organització Mundial de la Salut (OMS) - Ètica i governança de la IA per a la salut - who.int
-
Institut Nacional d'Estàndards i Tecnologia (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
Institut Nacional d'Estàndards i Tecnologia (NIST) - Perfil GenAI (AI RMF) - nvlpubs.nist.gov
-
Organització per a la Cooperació i el Desenvolupament Econòmics (OCDE) - Principis d'IA de l'OCDE - oecd.ai
-
UNESCO - Recomanació sobre l'ètica de la IA - unesco.org
-
Oficina de Drets d'Autor dels EUA - Guia sobre polítiques d'IA - copyright.gov
-
Comissió Federal de Comerç (FTC) - Comentari que fa referència als riscos de les afirmacions de màrqueting d'IA - ftc.gov
-
Departament d'Educació del Regne Unit (DfE) - IA generativa en educació - gov.uk
-
Associated Press (AP) - Estàndards al voltant de la IA generativa - ap.org
-
Societat de Periodistes Professionals (SPJ) - Codi de Deontologia de la SPJ - spj.org
-
Reuters - Mesures de la FTC contra les afirmacions enganyoses sobre la IA (2024-09-25) - reuters.com
-
Reuters - Reuters i IA (enfocament de transparència) - reuters.com
-
Universitat d'Oxford (Reuters Institute) - Divulgació i confiança en IA (2024) - ora.ox.ac.uk
-
ScienceDirect - El dilema de la transparència: divulgació i confiança en la IA (Schilke, 2025) - sciencedirect.com
-
OpenAI - Per què els models de llenguatge al·lucinen - openai.com
-
Centre d'ajuda d'OpenAI : ChatGPT diu la veritat? - help.openai.com