La intel·ligència artificial promet velocitat, escalabilitat i alguna mica de màgia ocasional. Però la brillantor pot encegar. Si us heu estat preguntant Per què la IA és dolenta per a la societat?, aquesta guia repassa els majors danys en un llenguatge planer, amb exemples, solucions i algunes veritats incòmodes. No és antitecnologia. És prorealitat.
Articles que potser t'agradaria llegir després d'aquest:
🔗 Quanta aigua utilitza la IA
Explica el sorprenent consum d'aigua de la IA i per què és important a nivell mundial.
🔗 Què és un conjunt de dades d'IA?
Desglossa l'estructura del conjunt de dades, les fonts i la importància per als models d'entrenament.
🔗 Com la IA prediu tendències
Mostra com els algoritmes analitzen patrons per predir els resultats amb precisió.
🔗 Com mesurar el rendiment de la IA
Cobreix les mètriques clau per avaluar la precisió, la velocitat i la fiabilitat del model.
Resposta ràpida: Per què la IA és dolenta per a la societat? ⚠️
Perquè sense barreres de seguretat serioses, la IA pot amplificar els biaixos, inundar els espais d'informació amb falsificacions convincents, sobrecarregar la vigilància, desplaçar els treballadors més ràpidament del que els reeduquem, sobrecarregar els sistemes d'energia i aigua i prendre decisions d'alt risc que són difícils d'auditar o apel·lar. Els principals organismes de normalització i reguladors assenyalen aquests riscos per una raó. [1][2][5]
Anècdota (composta): Un prestador regional prova una eina d'IA per a la classificació de préstecs. Augmenta la velocitat de processament, però una revisió independent conclou que el model no té un rendiment adequat per als sol·licitants de certs codis postals vinculats a la redlining històrica. La solució no és un memoràndum, sinó treball de dades, treball de polítiques i treball de productes. Aquest patró apareix una vegada i una altra en aquest article.
Per què la IA és dolenta per a la societat? Arguments que són bons ✅
Les bones crítiques fan tres coses:
-
Assenyaleu proves reproduïbles de danys o riscos elevats, no vibracions, per exemple, marcs de risc i avaluacions que tothom pugui llegir i aplicar. [1]
-
Mostrar dinàmiques estructurals com ara patrons d'amenaces a nivell de sistema i incentius per a l'ús indegut, no només accidents puntuals. [2]
-
Oferir mitigacions específiques que s'alineïn amb les eines de governança existents (gestió de riscos, auditories, orientació sectorial), no vagues crides a l'"ètica". [1][5]
Ho sé, sona fastidiosament raonable. Però aquest és el llistó.

Els danys, desempaquetats
1) Biaix, discriminació i decisions injustes 🧭
Els algoritmes poden puntuar, classificar i etiquetar les persones de maneres que reflecteixen dades esbiaixades o un disseny defectuós. Els organismes d'estàndards adverteixen explícitament que els riscos de la IA no gestionats (justícia, explicabilitat, privadesa) es tradueixen en danys reals si s'omet la mesura, la documentació i la governança. [1]
Per què és socialment dolent: eines esbiaixades a gran escala controlen discretament el crèdit, els llocs de treball, l'habitatge i l'atenció mèdica. Les proves, la documentació i les auditories independents ajuden, però només si realment les fem servir. [1]
2) Desinformació, deepfakes i erosió de la realitat 🌀
Ara és barat fabricar àudio, vídeo i text amb un realisme sorprenent. Els informes de ciberseguretat mostren que els adversaris utilitzen activament mitjans sintètics i atacs a nivell de model per erosionar la confiança i augmentar les operacions de frau i influència. [2]
Per què és socialment dolent: la confiança s'esfondra quan qualsevol pot afirmar que qualsevol clip és fals (o real), depenent de la conveniència. L'alfabetització mediàtica ajuda, però els estàndards d'autenticitat del contingut i la coordinació multiplataforma importen més. [2]
3) Vigilància massiva i pressió sobre la privadesa 🕵️♀️
La IA redueix el cost del seguiment a nivell de població: cares, veus, patrons de vida. Les avaluacions del paisatge d'amenaces assenyalen un ús creixent de la fusió de dades i l'anàlisi assistida per models que poden convertir sensors dispersos en sistemes de vigilància de facto si no es controlen. [2]
Per què és socialment dolent: els efectes dissuasius sobre la parla i l'associació són difícils de veure fins que ja són aquí. La supervisió hauria de precedir el desplegament, no anar-hi per darrere. [2]
4) Treball, salaris i desigualtat 🧑🏭→🤖
La IA pot augmentar la productivitat, és clar, però l'exposició és desigual. Les enquestes transnacionals a empresaris i treballadors troben riscos tant positius com disruptius, amb certes tasques i ocupacions més exposades que d'altres. La millora de les competències ajuda, però les transicions afecten les llars reals en temps real. [3]
Per què és socialment dolent: si els guanys de productivitat s'acumulen principalment a unes poques empreses o propietaris d'actius, ampliem la desigualtat mentre oferim un encongiment d'espatlles educat a tothom. [3]
5) Ciberseguretat i explotació de models 🧨
Els sistemes d'IA amplien la superfície d'atac: enverinament de dades, injecció ràpida, robatori de models i vulnerabilitats de la cadena de subministrament en les eines al voltant de les aplicacions d'IA. Els informes d'amenaces europees documenten l'abús al món real de mitjans sintètics, jailbreaks i campanyes d'enverinament. [2]
Per què és socialment dolent: quan allò que guarda el castell es converteix en el nou pont llevadís. Aplica la seguretat des del disseny i l'enduriment a les canonades d'IA, no només a les aplicacions tradicionals. [2]
6) Costos d'energia, aigua i medi ambient 🌍💧
L'entrenament i el servei de models grans poden consumir molta electricitat i aigua a través dels centres de dades. Els analistes internacionals d'energia ara fan un seguiment de la demanda creixent i alerten sobre els impactes a la xarxa a mesura que les càrregues de treball d'IA augmenten. La qüestió és la planificació, no el pànic. [4]
Per què és socialment dolent: la pressió invisible sobre les infraestructures es manifesta en factures més elevades, congestió de la xarxa elèctrica i disputes per l'emplaçament, sovint en comunitats amb menys influència. [4]
7) Assistència sanitària i altres decisions d'alt risc 🩺
Les autoritats sanitàries mundials assenyalen problemes de seguretat, explicabilitat, responsabilitat i governança de dades per a la IA clínica. Els conjunts de dades són desordenats; els errors són costosos; la supervisió ha de ser de grau clínic. [5]
Per què és socialment dolent: la confiança de l'algoritme pot semblar competència. No ho és. Les barreres de seguretat han de reflectir les realitats mèdiques, no les vibracions de les manifestacions. [5]
Taula comparativa: eines pràctiques per reduir els danys
(sí, els títols són peculiars a propòsit)
| Eina o política | Públic | Preu | Per què funciona... més o menys |
|---|---|---|---|
| Marc de gestió de riscos d'IA del NIST | Producte, seguretat, equips executius | Temps + auditories | Llenguatge compartit per al risc, els controls del cicle de vida i l'estructura de governança. No és una vareta màgica. [1] |
| Auditories de models independents i red teaming | Plataformes, startups, agències | De mitjà a alt | Troba comportaments perillosos i errors abans que ho facin els usuaris. Necessita independència per ser creïble. [2] |
| Procedència de les dades i autenticitat del contingut | Mitjans de comunicació, plataformes, fabricants d'eines | Eines + operacions | Ajuda a rastrejar les fonts i a marcar falsificacions a escala en tots els ecosistemes. No és perfecte, però encara és útil. [2] |
| Plans de transició de la força laboral | Recursos humans, formació i desenvolupament, responsables polítics | Reciclatge professional $$ | Millora de les habilitats i redisseny de tasques específics: desplaçament directe en rols exposats; mesurar resultats, no eslògans. [3] |
| Orientació sectorial per a la salut | Hospitals, reguladors | Temps de política | Alinea el desplegament amb l'ètica, la seguretat i la validació clínica. Prioritza els pacients. [5] |
Immersió profunda: com s'insinua realment el biaix 🧪
-
Dades esbiaixades : els registres històrics incorporen discriminació passada; els models la reflecteixen tret que es mesuri i es mitigui. [1]
-
Contextos canviants : un model que funciona en una població es pot esfondrar en una altra; la governança requereix una definició de l'abast i una avaluació contínua. [1]
-
Variables proxy : eliminar els atributs protegits no és suficient; les característiques correlacionades els reintrodueixen. [1]
Moviments pràctics: documentar conjunts de dades, executar avaluacions d'impacte, mesurar resultats entre grups i publicar resultats. Si no ho defensaries a la portada, no ho publiquis. [1]
Immersió profunda: per què la desinformació és tan enganxosa amb la IA 🧲
-
Velocitat + personalització = falsificacions que tenen com a objectiu microcomunitats.
-
Explotacions d'incertesa : quan tot podria ser fals, els mals actors només necessiten sembrar el dubte.
-
Retard de verificació : els estàndards de procedència encara no són universals; els mitjans autèntics perden la cursa si les plataformes no es coordinen. [2]
Immersió a fons: la factura de les infraestructures arriba al venciment 🧱
-
Energia : les càrregues de treball d'IA augmenten el consum d'electricitat dels centres de dades; les projeccions mostren un fort creixement aquesta dècada. [4]
-
per aigua sobrecarreguen els sistemes locals, de vegades en regions propenses a la sequera.
-
Lluites per l'emplaçament : les comunitats es resisteixen quan aconsegueixen els costos sense els avantatges.
Mitigacions: eficiència, models més petits/agils, inferència fora de les hores punta, ubicació a prop de les energies renovables, transparència en l'ús de l'aigua. Fàcil de dir, més difícil de fer. [4]
Llista de control tàctica per a líders que no volen el titular 🧰
-
Executa una avaluació de riscos d'IA vinculada a un registre en directe dels sistemes en ús. Mapeja els impactes en les persones, no només en els SLA. [1]
-
Implementa d'autenticitat de contingut i manuals d'incidents per a deepfakes dirigits a la teva organització. [2]
-
Defenseu auditories independents i la creació d'equips vermells per a sistemes crítics. Si decideix sobre les persones, mereix un examen minuciós. [2]
-
En casos d'ús en salut, seguiu les directrius del sector i insistiu en la validació clínica, no en els punts de referència de demostració. [5]
-
Combina el desplegament amb el redisseny de tasques i la millora de les habilitats , mesurat trimestralment. [3]
Respostes freqüents amb nudge 🙋♀️
-
No és bona també la IA? I tant. Aquesta pregunta aïlla els modes de fallada perquè puguem solucionar-los.
-
No podem simplement afegir transparència? Útil, però no suficient. Calen proves, supervisió i rendició de comptes. [1]
-
La regulació matarà la innovació? Unes normes clares tendeixen a reduir la incertesa i a desbloquejar la inversió. Els marcs de gestió de riscos tracten exactament sobre com construir amb seguretat. [1]
TL;DR i reflexions finals 🧩
Per què la IA és dolenta per a la societat? Perquè escala + opacitat + incentius desalineats = risc. Si no hi és, la IA pot reforçar el biaix, corroir la confiança, alimentar la vigilància, esgotar recursos i decidir coses que els humans haurien de poder apel·lar. La cara oposada de la moneda: ja tenim bastides per fer millors marcs de risc, auditories, estàndards d'autenticitat i orientacions sectorials. No es tracta de frenar de cop. Es tracta d'instal·lar-los, comprovar la direcció i recordar que hi ha gent real al cotxe. [1][2][5]
Referències
-
NIST – Marc de gestió de riscos d'intel·ligència artificial (AI RMF 1.0). Enllaç
-
ENISA – Panorama d'amenaces 2025. Enllaç
-
OCDE – L'impacte de la IA al lloc de treball: principals conclusions de les enquestes sobre IA de l'OCDE a empresaris i treballadors . Enllaç
-
AIE – Energia i IA (demanda d'electricitat i perspectives). Enllaç
-
Organització Mundial de la Salut – Ètica i governança de la intel·ligència artificial per a la salut . Enllaç
Notes sobre l'abast i l'equilibri: Les conclusions de l'OCDE es basen en enquestes en sectors/països específics; interpreteu-les tenint en compte aquest context. L'avaluació de l'ENISA reflecteix el panorama de les amenaces a la UE, però destaca patrons rellevants a nivell mundial. Les perspectives de l'AIE proporcionen projeccions modelitzades, no certeses; és un senyal de planificació, no una profecia.