💰 SoftBank ha completat la seva inversió de 40.000 milions de dòlars en OpenAI, segons una font ↗
Segons sembla, SoftBank ha acabat de finançar la totalitat de la inversió de 40.000 milions de dòlars en OpenAI, una xifra tan important que fa que la mirada es torni a concentrar.
La història ho presenta com un compromís totalment finançat, que s'endinsa perfectament en la cursa més àmplia d'"escala la computació" que s'ha convertit en la trama central de la IA.
🧠 Nvidia està en converses avançades per comprar els laboratoris AI21 d'Israel per fins a 3.000 milions de dòlars, segons un informe ↗
Segons sembla, Nvidia està en converses avançades per adquirir AI21 Labs, amb un preu esmentat de fins a 3.000 milions de dòlars. Es pot llegir com a audaç o completament poc sorprenent, depenent de com es vegi el procés de connexió de la GPU a tot.
S'emmarca com a part de l'impuls continu de Nvidia per apropar més talent de models i capacitat de producte al seu ecosistema principal.
🇪🇺 Polònia insta Brussel·les a investigar TikTok sobre contingut generat per IA ↗
Polònia insta la Comissió Europea a investigar TikTok després que es difonguessin i posteriorment fossin eliminats vídeos generats per IA amb missatges antiUE. L'episodi conté una energia enèrgica de "per això existeixen les normes de les plataformes".
Es basa en la idea que les principals plataformes haurien de respondre més ràpidament i de manera més consistent als riscos de desinformació amplificats per la IA, especialment quan puja la temperatura política.
🏛️ Texas crearà un consell per supervisar certs usos de la IA ↗
Texas està a punt d'establir un consell centrat en supervisar certs usos governamentals de la IA. És una governança per comitè: deliberada, sí, i potser deliberadament quan la tecnologia supera el sentit comú.
L'èmfasi es posa en la supervisió, l'orientació i la descoberta d'usos arriscats, inclosos els biaixos i altres resultats nocius que poden colar-se sota la càlida resplendor de l'"automatització"
🧯 El bloc d'oficines on es reuneixen els "apocalipsis" de la IA per predir l'apocalipsi ↗
Una mirada reportada a un grup de grups de seguretat d'IA que passen els dies cartografiant modes de fallada catastròfica: engany, mal ús, risc cibernètic i models que fan coses que no vam demanar explícitament (cosa que es troba al cor de la por).
El que destaca és la sensació de ser gairebé convencional. Menys barret de paper d'alumini, més "laboratori de riscos", com fer simulacres d'incendi mentre encara s'està muntant l'edifici.
🕵️♀️ Les darreres notícies sobre IA anunciades per Google al desembre ↗
Google ha destacat noves actualitzacions relacionades amb Gemini, com ara eines per identificar contingut multimèdia generat o editat per IA mitjançant senyals SynthID. El subtext queda clar: la procedència s'està convertint en una característica del producte.
També es llegeix com l'obertura d'una nova normalitat, on cada clip porta un asterisc discret tret que la detecció maduri prou per calmar l'ambient. No hi ha garanties que això s'hi inclogui.