Notícies d'IA 20 de gener de 2026

Resum de notícies sobre IA: 20 de gener de 2026

🧒 OpenAI implementa la predicció d'edat a ChatGPT

OpenAI ha començat a impulsar una capa de "predicció d'edat" dins de ChatGPT, un sistema silenciós que intenta deduir quan és probable que un compte pertanyi a un menor i, a continuació, activa barreres de seguretat addicionals. Si creu que ets menor de 18 anys, restringeix automàticament l'accés a contingut més sensible.

Quan s'equivoca (cosa que... de vegades ho farà), el remei és la verificació de la identitat a través de Persona, utilitzant un flux basat en selfies. També s'incrusta en canvis de plataforma més amplis com ara experiments de "mode adult" i moviments de monetització que, francament, semblen uns quants plats girant alhora.

🏦 Els legisladors diuen que Gran Bretanya necessita "proves d'estrès d'IA" per als serveis financers

Els legisladors del Regne Unit bàsicament diuen: deixeu de ser tranquils amb la IA en les finances. El seu argument és que els reguladors i el govern haurien de sotmetre els sistemes d'IA a proves d'estrès de la mateixa manera que els bancs es sotmeten a proves d'estrès, perquè el "ups" al món dels diners tendeix a propagar-se ràpidament.

La preocupació és el tipus de problema que només es revela a gran escala: biaix, cascades d'errors, patrons de frau, bucles de retroalimentació. És com deixar que un nen petit condueixi un autobús perquè el camí és recte... fins que de sobte deixa de ser-ho.

🏛️ Campions de la IA nomenats per ajudar la ciutat a aprofitar amb seguretat les oportunitats de la IA

El govern del Regne Unit va nomenar dos "campions de la IA" per ajudar a accelerar l'adopció de la IA en els serveis financers, amb les promeses habituals de creixement, productivitat, inversió, tota aquesta maquinària que sona bé.

El que destaca és l'equilibri: energia de "moure's ràpid", amb "segur" estampat a sobre. Tranquil·litzador... o lleugerament còmic, depenent del teu estat d'ànim aquell dia.

💰 Humans&, una startup d'IA "centrada en les persones" fundada per antics alumnes d'Anthropic, xAI i Google, ha recaptat 480 milions de dòlars en una ronda de finançament inicial

Humans& van arribar amb una gran ronda de candidatures i un equip que s'assembla al "pack inicial d'un laboratori d'IA": gent de les principals botigues de models i grans tecnològiques. L'objectiu declarat és menys chatbot i més "ajudar els humans a coordinar-se i col·laborar", amb sistemes que puguin operar entre persones i agents d'IA.

Són molts diners per alguna cosa que encara és aviat, cosa que o bé és un senyal que el mercat té confiança... o bé que tots plegats estem comprant focs artificials perquè ens agrada el so. Sincerament, podrien ser les dues coses.

⚖️ L'empresa emergent d'IA legal Ivo recapta 55 milions de dòlars en la seva última ronda de finançament

L'empresa emergent d'IA jurídica Ivo va obtenir nous fons per desenvolupar la seva plataforma i augmentar les vendes, aprofitant l'onada de bufets d'advocats i equips legals interns que automatitzen fluxos de treball amb molta paperassa.

Aquesta categoria continua guanyant perquè el valor és directe i simple: menys hores dedicades a treballs repetitius amb documents, menys coses que se'ns escapen. No és glamurós, però sí molt, molt facturable.

🧠 Inventec de Taiwan diu que la decisió sobre el xip H200 d'Nvidia "sembla estar encallada" del costat de la Xina

Un fabricant de servidors taiwanès va dir que la qüestió de si Nvidia ven el seu xip d'IA H200 a la Xina sembla "encallada", cosa que implica que el coll d'ampolla no són només normes externes, sinó també aprovacions per part de la Xina o dinàmiques internes.

Aquesta és la realitat poc atractiva del maquinari d'IA: tothom parla de models i agents, però tot el futur pot dependre d'uns quants punts d'estrangulament, permisos i polítiques de la cadena de subministrament. És com planificar el llançament d'un coet... i després adonar-se que has oblidat la clau de la vàlvula de combustible.

Preguntes freqüents

Quina és la predicció d'edat d'OpenAI a ChatGPT i què canvia si et marquen com a menor de 18 anys?

OpenAI ha introduït una capa de "predicció d'edat" de baix perfil que intenta inferir si un compte probablement pertany a un menor. Si el sistema conclou que ets menor de 18 anys, ChatGPT aplica automàticament barreres de seguretat addicionals. A la pràctica, això normalment significa límits més estrictes sobre el contingut considerat més sensible. L'objectiu és reduir el risc sense obligar cada usuari a declarar la seva edat per endavant.

Què passa si la predicció d'edat de ChatGPT s'equivoca?

Si la predicció d'edat a ChatGPT falla i etiqueta un adult com a menor de 18 anys, la solució indicada és la verificació d'identitat. En aquest desplegament, aquesta verificació es gestiona a través de Persona mitjançant un flux basat en selfies. Després de la verificació, el compte pot tornar a l'accés normal en lloc de romandre bloquejat darrere de barreres de seguretat més estrictes. És un compromís: menys casos límit arriscats, amb fricció afegida quan el sistema endevina incorrectament.

Com encaixa la verificació de selfies de Persona en l'enfocament de seguretat d'OpenAI?

Persona serveix com a mecanisme per resoldre la incertesa relacionada amb l'edat quan la inferència del sistema es considera poc fiable. El flux de verificació d'identitat basat en selfies es posiciona com un pas correctiu després d'una predicció d'edat incorrecta. En moltes plataformes, aquest tipus de pas s'utilitza per equilibrar la seguretat i l'accés sense bloquejar permanentment els usuaris legítims. També apunta cap a una aplicació més estricta a nivell de compte, no només un filtratge a nivell de sol·licitud.

Per què OpenAI afegeix ara la restricció d'edat i què té a veure amb el "mode per a adults"?

Aquesta actualització arriba juntament amb canvis més amplis a la plataforma, com ara experiments de "mode per a adults" i moviments de monetització esmentats a la mateixa discussió. La predicció d'edat a ChatGPT esdevé efectivament el canvi que determina qui rep valors predeterminats més estrictes enfront d'un accés més ampli. Això és útil per a una plataforma que prova diferents experiències en diferents públics. També pot limitar l'exposició a contingut més arriscat alhora que permet l'expansió en altres llocs.

Què són les "proves d'estrès d'IA" per als serveis financers del Regne Unit i per què les volen els legisladors?

Els legisladors del Regne Unit demanen "proves d'estrès d'IA" que tractin els sistemes d'IA més com els bancs: sotmetre'ls a proves de pressió abans que els problemes s'estenguin. La preocupació és que els biaixos, les cascades d'errors, els patrons de frau i els bucles de retroalimentació només es puguin fer visibles a gran escala. En finances, les petites fallades es poden propagar ràpidament a través de sistemes estretament interconnectats. Les proves d'estrès tenen com a objectiu posar de manifest les debilitats abans, abans que els diners reals i els clients reals es vegin afectats.

Qui són els "campions de la IA" del Regne Unit per a la ciutat i què se suposa que han de fer?

El govern del Regne Unit ha nomenat dos "campions de la IA" per ajudar a accelerar l'adopció de la IA en els serveis financers. El seu paper s'emmarca en ajudar la ciutat a aprofitar les oportunitats de la IA mentre ho fa "de manera segura". A la pràctica, es llegeix com a coordinació i defensa: fomentar l'adopció, donar suport a les millors pràctiques i alinear les parts interessades. Senyala que el govern vol un desplegament més ràpid, amb un embolcall de seguretat visible al seu voltant.

Notícies d'IA d'ahir: 19 de gener de 2026

Troba la darrera versió d'IA a la botiga oficial d'assistents d'IA

Sobre nosaltres

Torna al bloc