Notícies d'IA 20 de febrer de 2026

Resum de notícies sobre IA: 20 de febrer de 2026

💰 Nvidia s'ha apuntat a una participació de 30.000 milions de dòlars en la mega ronda de finançament d'OpenAI

Es diu que Nvidia està a punt d'invertir uns 30.000 milions de dòlars en OpenAI com a part d'un augment de fons gegantí, el tipus de xifra que fa que els teus ulls parpellegin aquell petit "espera, què?".

L'informe ho emmarca com un allunyament d'un acord anterior de grans dimensions, encara no finalitzat, amb gran part dels diners que finalment es destinaran a la computació. La pila d'IA comença a semblar-se a un con de gelat que es llepa a si mateix... o això sembla. ( Reuters )

🧠 Les accions cibernètiques trontollen després que Anthropic estreni "Claude Code Security"

Anthropic va llançar una oferta de Claude Code centrada en la seguretat, i la reacció del mercat va ser... nerviosa, amb noms de ciberseguretat que, segons sembla, van insinuar que les eines natives d'IA podrien incorporar-se a parts del flux de treball de seguretat antic.

La part interessant és l'enquadrament: menys "la IA ajuda els equips de seguretat" i més "la IA esdevé el producte de seguretat", cosa que és un gir subtil però una mica brutal si avui vens seients i subscripcions. ( Bloomberg.com )

📵 Anthropic estreny els cargols a l'accés de tercers a les subscripcions de Claude

Anthropic ha actualitzat els termes legals per aclarir les restriccions sobre l'ús d'"arneses" de tercers amb les subscripcions de Claude; bàsicament, menys llacunes legals per a aplicacions contenedores i integracions no oficials.

Si esteu construint sobre Claude, es llegeix com un recordatori suau que el propietari de la plataforma pot (i ho farà) tornar a traçar les línies quan els models d'ingressos es tornin tèrbols. Molestes per als constructors, previsibles per a les empreses, ambdues coses poden ser certes. ( The Register )

🔍 Una investigació de Microsoft argumenta que no hi ha una única manera fiable de detectar els mitjans generats per IA

Un article de Microsoft Research adverteix que no hi ha una solució màgica per distingir de manera fiable els continguts multimèdia generats per IA dels autèntics, i que l'excés de confiança en qualsevol detector pot ser contraproduent.

La conclusió és una mica desoladora: la detecció serà per capes, probabilística i contradictòria, com el filtratge de correu brossa, però amb més riscos i més caos. ( Redmondmag )

🧪 Google Gemini 3.1 Pro es llança amb un argument de "salt de raonament"

Gemini 3.1 Pro va arribar en una vista prèvia amb Google presentant un raonament bàsic millorat i una àmplia disponibilitat en tots els seus productes i API, a més de drets de fanfarroneria sobre els quals sens dubte es debatrà a Internet.

El que importa, discretament, és si els desenvolupadors ho noten en els fluxos de treball diaris: menys errors estranys, millors tasques a llarg termini, menys "semblava segur però... no". ( Notebookcheck )

🏛️ Els constructors més grans d'IA s'estan convertint en alguns dels lobbistes més importants

Els grans laboratoris d'IA han estat augmentant la despesa en lobbyisme, pressionant per enfocaments reguladors amb els quals puguin acceptar-los, i sí, això probablement significa normes que semblin "responsables" sense arruïnar el creixement.

És l'arc clàssic: construir alguna cosa que doni forma al món i després córrer cap a la taula de polítiques abans que algú altre posi el menú. Ni malvat, ni sant, només... extremadament humà. ( Forbes )

Preguntes freqüents

Què indica la participació de 30.000 milions de dòlars d'Nvidia en la mega ronda de finançament d'OpenAI?

Això suggereix que els actors més importants de la IA poden estar entrant en un embolic vertical més estret, on el finançament està estretament vinculat a l'accés a la computació. Els informes presenten l'estructura com un canvi respecte a un pla de grans dimensions anterior, encara no finalitzat. En termes pràctics, el capital que "augmenta la ronda" també pot funcionar com a mecanisme per pagar la infraestructura, suavitzant la frontera entre inversor i proveïdor. Tendeix a seguir un major escrutini, especialment pel que fa als incentius i al risc de dependència.

Per què van trontollar les accions cibernètiques després que Anthropic estrenés Claude Code Security?

El moviment sembla vinculat al que implica el llançament: els productes de seguretat nadius de la IA podrien substituir parts dels fluxos de treball de seguretat existents, no només augmentar-los. Aquesta història difereix de "la IA ajuda els analistes", perquè apunta cap a la substitució directa del producte. Si una empresa depèn de seients i subscripcions per a eines heretades, els mercats poden interpretar les ofertes de seguretat de la IA com una forma de pressió de marge. L'ansietat més profunda és un canvi de la venda d'eines a la venda de resultats.

Puc continuar utilitzant aplicacions contenedores de tercers amb subscripcions a Claude després de l'actualització de les condicions d'Anthropic?

L'actualització reforça les restriccions al voltant dels "arnesos" de tercers i les integracions no oficials, deixant menys marge per a les aplicacions contenedores. Si el vostre producte depèn de l'encaminament de l'accés de subscripció a través d'un tercer, és prudent tornar a comprovar quins patrons d'ús continuen sent permesos. Una cobertura habitual és basar-se en API oficials i integracions documentades, de manera que esteu menys exposats quan els termes s'endureixen. Tracteu els canvis de política com un risc recurrent de la plataforma, no com una sorpresa puntual.

Hi ha alguna manera infal·lible de detectar contingut multimèdia generat per IA?

Una investigació de Microsoft sosté que no hi ha un únic detector de bala màgica fiable, i l'excés de confiança en qualsevol mètode pot rebotar malament. En molts pipelines, la postura més segura es manté en capes: múltiples senyals, puntuació probabilística i proves constants a mesura que els models evolucionen. La detecció tendeix a tornar-se adversaria amb el temps, similar al filtratge de correu brossa, però amb més riscos. Els resultats funcionen millor com a indicadors de risc, no com a proves definitives.

Què haurien d'esperar els desenvolupadors del discurs de "salt de raonament" de Google Gemini 3.1 Pro?

La prova pràctica és si el model es percep com més fiable en els fluxos de treball diaris: menys errors estranys, una gestió de tasques a llarg termini més sòlida i menys "confiança però error". Les millores i els punts de referència anunciats proporcionen un context valuós, però la fiabilitat diària sovint importa més que les afirmacions de la taula de classificació. Un enfocament constant és validar amb les vostres pròpies tasques, indicacions i arnès d'avaluació. Presteu atenció a la coherència amb entrades sorolloses i imperfectes.

Per què els grans laboratoris d'IA estan intensificant el lobbyisme i què podria canviar això?

A mesura que els sistemes d'IA esdevenen més importants econòmicament i socialment, els principals constructors pressionen per aconseguir enfocaments reguladors sota els quals puguin operar. Això sovint es tradueix en la defensa de normes "responsables" que alhora preservin el creixement i la velocitat del producte. El patró és familiar: primer construir, després córrer per donar forma al marc polític abans que s'endureixi. Per a tothom, la pressió augmenta sobre la transparència, la competència i com s'acaben distribuint els costos de compliment.

Notícies d'IA d'ahir: 19 de febrer de 2026

Troba la darrera versió d'IA a la botiga oficial d'assistents d'IA

Sobre nosaltres

Torna al bloc