Notícies d'IA 18 de gener de 2026

Resum de notícies sobre IA: 18 de gener de 2026

💰 Sequoia salta silenciosament a la mega-ronda d'Anthropic

Segons sembla, Sequoia, que ja està involucrada amb diversos laboratoris importants d'IA, s'uneix a un augment de sou gegant d'Anthropic. És el tipus de moviment que fa pujar de nivell tota la xerrameca de "conflictes, no conflictes", tant si algú ho admet com si no.

Es diu que la ronda també inclou altres xecs de pes pesat, cosa que impulsarà Anthropic encara més cap a aquest carril de megavaloració de primer nivell. Les vibracions de bombolla persisteixen. Aquesta també podria ser la nova normalitat, de manera irritant.

📢 ChatGPT comença a flirtejar amb els anuncis, aquesta vegada de debò

Es diu que OpenAI està provant anuncis per a alguns usuaris dels EUA en nivells de cost més baix, mentre que els nivells de pagament més alt es mantindran sense anuncis. La promesa és que els anuncis no influiran en les respostes, cosa que en teoria és tranquil·litzadora, fins i tot quan el reflex de confiança mostra una petita oscil·lació.

El subtext més ampli és simple: la inferència és cara, i les subscripcions per si soles potser no ho cobreixen tot per sempre... o això sembla. Tot i això, la primera vegada que veus "patrocinat" a prop d'un chatbot, alguna cosa canvia al teu cap. L'atmosfera canvia.

📚 Els editors intenten acumular-se a la demanda de formació en IA de Google

Un grup d'editors intenta unir-se a una demanda que acusa Google d'utilitzar obres protegides per drets d'autor per entrenar els seus sistemes d'IA. Aquesta batalla legal continua eixamplant-se, com una esquerda al gel que continues sentint però no pots localitzar.

Si el tribunal els permet entrar, el cas podria aguditzar-se al voltant del que haurien de significar "permís" i "pagament" per a les dades d'entrenament. Tothom vol un precedent, preferiblement un que els afavoreixi, evidentment.

🕳️ Un truc d'"injecció ràpida" suposadament interfereix amb Gemini a través de dades de reunions

Els investigadors van descriure un atac d'estil "injecció indirecta de senyals" on les instruccions malicioses s'amaguen dins de contingut d'aspecte normal, i després un assistent les segueix quan un usuari pregunta alguna cosa innocent. Sense programari maliciós, sense màgia, només text convertit en arma, estranyament elegant i també una mica repugnant.

És un recordatori que "LLM llegeix text no fiable" no és una funció agradable, sinó tota una superfície d'amenaces. Com deixar que desconeguts et posi notes a les butxaques tot el dia i després actuar sorprès quan un d'ells és una trampa.

🎮 El CEO de Razer diu que als jugadors "ja els agrada la IA", simplement odien l'etiqueta

La xerrada de Razer al CES es va centrar en la IA com a eina pràctica per als fluxos de treball de desenvolupament de jocs (control de qualitat, iteració, aquest tipus de coses), a més d'alguns conceptes d'assistent que semblen mig útils, mig accessoris de ciència-ficció.

Bàsicament, també admeten el problema de la marca: els jugadors no volen "mal funcionament de la IA", però sí que volen eines més intel·ligents i experiències més fluides. Digueu-ne "assistència" i la gent assenteix. Digueu-ne "IA" i la gent agafa les forques... de vegades.

⚖️ Un tribunal estableix normes per als advocats que utilitzen IA generativa

Un tribunal va publicar una guia que bàsicament es resumeix a: sí, utilitza genAI, però el treball continua sent teu. No pots externalitzar el teu judici professional a un generador de text i després actuar com si estiguessis sorprès quan aquest inventés alguna cosa amb confiança.

Curiosament, la divulgació no és obligatòria tret que ho demani un jutge, però el missatge de responsabilitat és la veritable columna vertebral. La IA pot redactar i ordenar... i també al·lucinar com un becari massa segur de si mateix amb un talent per a la ficció.

Preguntes freqüents

Què significa la incorporació de Sequoia a la megaronda d'Anthropic per a la inversió i els conflictes en IA?

Això suggereix que els principals inversors podrien continuar donant suport a diversos laboratoris d'IA importants alhora, cosa que, com era previsible, revifa el debat de "conflictes, no conflictes". Quan el mateix fons s'enreda en diversos laboratoris, la gent comença a examinar els incentius, l'accés i els avantatges competitius. La megaronda també subratlla la deriva cap a xecs enormes i valoracions elevades, fins i tot quan encara hi ha "vibracions de bombolla" a l'aire.

ChatGPT rep anuncis en nivells gratuïts o de baix cost i afectaran les respostes?

L'informe diu que OpenAI està provant anuncis per a alguns usuaris dels EUA en nivells de cost més baix, mentre que els nivells de pagament més alt continuen sense anuncis. També afirma que els anuncis no influiran en les respostes, cosa que sona tranquil·litzadora sobre el paper però que encara pot canviar la manera com la gent percep la confiança. El subtext és econòmic: la inferència és cara i les subscripcions poden no cobrir-ho tot per sempre.

Per què els editors intenten unir-se a la demanda de Google sobre formació en IA?

Un grup d'editors vol unir-se a una demanda que al·lega que Google va utilitzar obres protegides per drets d'autor per entrenar sistemes d'IA. Si el tribunal els ho permet, el cas podria agreujar-se al voltant de com haurien de ser els termes "permís" i "pagament" per a les dades d'entrenament. Més parts implicades sovint significa més pressió per a un precedent clar, especialment pel que fa a qui rep la compensació i en quines condicions.

Què és un atac d'"injecció indirecta immediata" i per què és tan important en les notícies tecnològiques d'IA?

És un atac en què les instruccions malicioses s'amaguen dins de contingut d'aspecte normal, i un assistent les segueix més tard quan un usuari fa una sol·licitud innocent. El problema principal és que el model llegeix text no fiable, convertint documents i missatges quotidians en una superfície d'amenaça potencial. És convincent perquè pot funcionar sense programari maliciós tradicional, només llenguatge armat incrustat al contingut.

Per què als jugadors no els agrada l'etiqueta "IA" però tot i així volen eines d'IA?

El CEO de Razer argumenta que als jugadors ja els agraden els beneficis pràctics (un control de qualitat més ràpid, una iteració més fluida i ajuda per al flux de treball), però reaccionen negativament a la marca. La preocupació sovint és la "deficiència en la IA" o el contingut que sembla de baix esforç i poc autèntic. Reformular-lo com a "assistència" o una funció d'utilitat pot fer que sembli una eina que millora l'experiència en lloc de substituir la creativitat.

Què signifiquen les normes del tribunal per als advocats que utilitzen IA generativa i han de revelar-ho?

La guia descrita és senzilla: els advocats poden utilitzar la IA generativa, però continuen sent responsables de la feina i no poden externalitzar el judici professional a un generador de text. El risc és l'al·lucinació (fets o cites inventats amb confiança), de manera que la verificació i la rendició de comptes continuen sent centrals. Segons sembla, la divulgació no és necessària tret que un jutge ho demani, però el missatge continua sent: el resultat és teu.

Notícies d'IA d'ahir: 17 de gener de 2026

Troba la darrera versió d'IA a la botiga oficial d'assistents d'IA

Sobre nosaltres

Torna al bloc