Notícies d'IA 10 de gener de 2026

Resum de notícies sobre IA: 10 de gener de 2026

Indonèsia bloqueja l'accés al chatbot d'IA de Musk, Grok, per imatges de deepfake

Indonèsia va bloquejar temporalment Grok després que s'utilitzés per generar deepfakes sexuals no consentits, incloses imatges dirigides a dones i nens. El govern ho va emmarcar com un problema de drets humans i seguretat pública, no com un inconvenient tecnològic menor.

El punt de pressió és contundent: si una eina pot "desvestir" persones reals sota comanda, la càrrega de la prova s'inverteix. Les plataformes han de demostrar que poden evitar-ho, no només prometre que hi estan pensant.

Elon Musk diu que el Regne Unit vol suprimir la llibertat d'expressió, ja que X s'enfronta a una possible prohibició

Els ministres del Regne Unit van imposar multes obertament, i fins i tot van bloquejar X, després que Grok s'utilitzés per generar imatges sexualment explícites sense consentiment. Musk va rebutjar l'enunciat familiar de llibertat d'expressió... però la postura legal al Regne Unit està passant del "club de debat" a la "data límit de compliment"

S'està pressionant Ofcom perquè actuï ràpidament, i els legisladors assenyalen el mateix patró sinistre: un cop les imatges es difonen, el dany no espera pacientment una actualització de la política.

🧑💻 Segons sembla, OpenAI demana als contractistes que pengin treballs reals de feines anteriors

Segons sembla, OpenAI, juntament amb un soci de dades de formació, demana als contractistes que pengin artefactes de treball reals de feines anteriors (i actuals), com ara documents, fulls de càlcul, presentacions, repositoris. L'objectiu declarat és avaluar i millorar els agents d'IA en tasques d'oficina.

La part enganxosa és òbvia i lleugerament surrealista: als contractistes se'ls diu que esborrin ells mateixos la informació sensible. És molta confiança per dipositar en un procés que avança ràpidament, com demanar a algú que desactivi una bomba amb guants de forn, amb afecte.

🗂️ OpenAI demana als contractistes que pengegin treballs de feines anteriors per avaluar el rendiment dels agents d'IA

Un informe separat aprofundeix en la mateixa configuració i per què alarma els advocats especialitzats en privadesa i propietat intel·lectual. Fins i tot si tothom actua de bona fe, "eliminar les coses confidencials" és una instrucció superficial quan es tracta de documents corporatius reals.

També insinua l'estratègia més àmplia: els agents d'IA ja no són només copilots xerraires, sinó que s'estan entrenant per imitar la realitat enrevessada i amb diversos fitxers de la feina real. Pràctic, sí. També una mica... ostres.

🏦 Allianz i Anthropic forgen una aliança global per promoure la IA responsable en les assegurances

Allianz i Anthropic han anunciat una col·laboració global centrada en tres eixos: la productivitat dels empleats, l'automatització operativa mitjançant la IA agentiva i el compliment normatiu per disseny. Les assegurances són paperassa amb dents, de manera que "agentiva" aquí bàsicament significa automatitzar fluxos de treball complexos sense perdre pistes d'auditoria.

La idea és: feu l'automatització genial, però guardeu els rebuts. En indústries regulades, aquesta és l'única manera que això s'escala sense convertir-se en una pinyata de passius.

🕵️♂️ Declaració en resposta a Grok AI a X

El regulador de protecció de dades del Regne Unit diu que va contactar amb X i xAI per demanar aclarir com gestionen les dades personals i protegeixen els drets de les persones, ateses les preocupacions sobre el contingut generat per Grok. No es tracta només de la "moderació de contingut", sinó també de si les dades de les persones es processen legalment i si es protegeixen els drets.

Aquest és el tipus de mesura reguladora que sona educada, i després es torna silenciosament extremadament seriosa si les respostes tornen confuses... o evasives, o ambdues coses.

Preguntes freqüents

Per què Indonèsia va bloquejar l'accés a la IA de Grok?

Indonèsia va bloquejar temporalment Grok després que, segons sembla, s'utilitzés per generar deepfakes sexuals no consentits, incloses imatges dirigides a dones i nens. Els funcionaris van emmarcar la mesura com un problema de drets humans i seguretat pública, no com una disputa tecnològica menor. El missatge subjacent és que "ho arreglarem més tard" no és suficient quan les eines poden produir danys immediats i irreversibles.

Què està considerant el Regne Unit després que apareguessin els deepfakes generats per Grok a X?

Els ministres del Regne Unit van discutir públicament les multes i fins i tot la possibilitat de bloquejar X després que Grok s'utilitzés per crear imatges sexualment explícites sense consentiment. El to polític i regulador està canviant cap al compliment exigible, no cap al debat obert. El punt al qual els legisladors tornen constantment és el moment: un cop les imatges es difonen, les víctimes s'enfronten a danys molt abans que les plataformes publiquin polítiques actualitzades.

Què significa quan els reguladors "inverteixen la càrrega de la prova" per a les eines d'imatges d'IA?

La idea de la "càrrega de la prova" és que les plataformes poden haver de demostrar que poden prevenir danys específics, com ara generar imatges de "despullar-se" no consensuades, en lloc de simplement prometre salvaguardes. A la pràctica, això empeny les empreses cap a controls demostrables, una aplicació mesurable i una gestió clara dels errors. També indica que la "intenció" importa menys que els resultats tangibles i la prevenció repetible.

Com poden les plataformes reduir el risc de deepfakes no consensuats generats per IA?

Un enfocament comú és la prevenció per capes: restringir les indicacions i els resultats vinculats a persones reals, bloquejar les sol·licituds d'estil de "despullar-se" i detectar i aturar els intents de generar imatges sexualitzades sense consentiment. Molts canals afegeixen límits de velocitat, un control més fort de la identitat i l'abús, i fluxos de treball de retirada ràpida un cop el contingut s'estén. L'objectiu no és només el llenguatge de les polítiques, sinó també eines que aguantin l'ús adversari.

Per què les càrregues de documents de treball reals per part de contractistes d'OpenAI fan sonar les alarmes?

Els informes indiquen que OpenAI (amb un soci de dades de formació) demana als contractistes que pengegin artefactes de treball reals (documents, fulls de càlcul, presentacions i repositoris) per avaluar i millorar els agents d'IA per a tasques d'oficina. La preocupació és que es diu als contractistes que esborrin ells mateixos els detalls sensibles, cosa que pot ser propensa a errors. Els advocats de privadesa i propietat intel·lectual temen que aquesta instrucció d'"eliminar les coses confidencials" sigui massa ambigua per a materials corporatius reals.

Quina importància té l'associació d'Allianz amb Anthropic en la "IA agentiva" en assegurances?

Allianz i Anthropic van descriure una col·laboració global centrada en la productivitat dels empleats, l'automatització operativa mitjançant IA agentiva i el compliment normatiu per disseny. Els fluxos de treball de les assegurances són complexos i estan molt regulats, de manera que "agentiva" sovint implica automatitzar processos de diversos passos sense perdre la responsabilitat. L'èmfasi en les pistes d'auditoria i "guardar rebuts" reflecteix una realitat pràctica: l'automatització només s'escala en indústries regulades quan continua sent inspeccionable i defensable.

Notícies d'IA d'ahir: 9 de gener de 2026

Troba la darrera versió d'IA a la botiga oficial d'assistents d'IA

Sobre nosaltres

Torna al bloc