🕵️ Gran Bretanya treballarà amb Microsoft per construir un sistema de detecció de deepfakes ↗
Gran Bretanya diu que s'està associant amb Microsoft, acadèmics i altres experts per construir un sistema que pugui detectar deepfakes en línia, a més d'una manera adequada de provar si les eines de detecció es mantenen efectives.
L'èmfasi es posa en els danys més greus: la suplantació d'identitat, el frau i el contingut sexual no consentit. No és glamurós, però és on es concentra el dany.
🧠 Anthropic publica una actualització d'IA mentre el mercat castiga les accions de programari ↗
Anthropic va llançar un model Claude actualitzat (Opus 4.6), que oferia un rendiment més fort en codificació i finances, a més de la capacitat de processar fins a 1 milió de tokens de cop. Això és molt contextual, com si li donessis al model una targeta de biblioteca sencera.
També s'estan inclinant cap als "agents" a través de Claude Code, on les tasques es poden dividir entre ajudants autònoms. Pràctic, més del que t'esperaries, i també el tipus de canvi que fa que els inversors en programari de la vella escola es posin una mica nerviosos.
🧑💼 OpenAI presenta un servei d'agent d'IA com a part de la iniciativa per atraure empreses ↗
OpenAI ha anunciat "Frontier", un servei centrat en l'empresa per a la creació i gestió d'agents d'IA: els bots que fan tasques específiques com ara depurar programari, gestionar fluxos de treball, aquest tipus de coses.
La peculiaritat és que està pensat per connectar-se a la infraestructura existent de l'empresa i fins i tot donar suport a agents externs, cosa que sembla que OpenAI vulgui convertir-se en la sala de control, no només en el proveïdor del model. Ambiciós... o lleugerament possessiu, depenent de com ho miris.
🪖 Els EUA i la Xina opten per no participar en la declaració conjunta sobre l'ús de la IA en l'exèrcit ↗
Un grup de països van signar una declaració no vinculant que estableix els principis per a l'ús de la IA en la guerra, com ara la responsabilitat humana, estructures de comandament clares i proves i avaluació de riscos serioses.
Però els EUA i la Xina no van signar. I això és tot el que passa en un sol instant: el reglament existeix, i els actors més importants... no tenen les regnes.
🎭 La legislació de Nova York exigeix la divulgació dels artistes generats per IA en la publicitat i reforça els drets de publicitat post mortem ↗
Nova York va signar lleis que exigeixen que els anuncis que utilitzen "intèrprets sintètics" generats per IA ho revelin clarament al públic de l'estat, fins i tot si l'anunciant té la seu en un altre lloc. Bàsicament, és: no enganyeu a la gent un humà fals i anomeneu-ho màrqueting.
Per separat, l'estat va reforçar les normes sobre l'ús comercial de les imatges de persones mortes, incloses les rèpliques digitals. És una mica trist, francament, però també molt "benvingut a l'era on la identitat necessita un cinturó de seguretat"
Preguntes freqüents
Què està construint Gran Bretanya amb Microsoft per detectar deepfakes en línia?
Gran Bretanya diu que treballarà amb Microsoft, acadèmics i altres experts per construir un sistema que pugui detectar deepfakes en línia. El pla també inclou la creació d'una manera fiable de comprovar si les eines de detecció resisteixen fora del laboratori. L'atenció es manté en els danys més perjudicials: la suplantació d'identitat, el frau i el contingut sexual no consentit.
En què es diferenciaran les proves "in the wild" per a detectors de deepfakes de les demostracions?
A més del detector en si, Gran Bretanya està emfatitzant una manera de provar les eines de detecció de deepfakes en condicions realistes. En molts processos de desenvolupament, els models semblen forts en conjunts de dades seleccionats, però s'afebleixen quan canvien els formats de contingut, la compressió o les tàctiques d'enfrontament. Un enfocament d'avaluació estructurat ajuda a comparar les eines de manera consistent i revela on falla la detecció en entorns en línia en directe.
Què va canviar Anthropic a Claude Opus 4.6 i per què importa el límit de fitxes?
Anthropic diu que Claude Opus 4.6 millora el rendiment en àrees com la codificació i les finances, i pot gestionar fins a 1 milió de tokens de context. Aquesta finestra de context més gran pot facilitar el treball amb documents llargs o bases de codi complexes sense haver de recarregar informació constantment. També han destacat els "agents" a través de Claude Code, on les tasques es poden dividir entre ajudants autònoms.
Què és OpenAI "Frontier" i com encaixa en els fluxos de treball empresarials?
OpenAI ha anunciat "Frontier" com un servei centrat en l'empresa per a la creació i gestió d'agents d'IA que realitzen tasques específiques, com ara la depuració de programari o la gestió de fluxos de treball. Està posicionat per connectar-se a la infraestructura existent de l'empresa en lloc de servir com a punt final de model autònom. OpenAI també ha dit que pot admetre agents de tercers, cosa que implica una capa de control per coordinar diferents sistemes d'agents.
Què diu la declaració sobre IA militar i què significa per a la governança de la IA?
La declaració es descriu com a no vinculant i estableix principis per a l'ús de la IA en la guerra, incloent-hi la responsabilitat humana, estructures de comandament clares i proves i avaluació de riscos serioses. Reuters va informar que molts països la van signar, però els EUA i la Xina no. Per a la governança de la IA, aquesta exclusió voluntària és important perquè deixa els actors més importants fora d'un conjunt compartit de normes establertes.
Què exigeixen les noves normes de Nova York per als intèrprets generats per IA en anuncis?
Nova York va signar lleis que exigeixen que la publicitat que utilitza "intèrprets sintètics" generats per IA reveli clarament aquest fet al públic de l'estat, fins i tot si l'anunciant té la seu en un altre lloc. Per separat, l'estat va reforçar els drets de publicitat post mortem sobre l'ús comercial de les imatges de persones mortes, incloses les rèpliques digitals. En termes pràctics, això impulsa la governança de la IA cap a un etiquetatge més clar i uns controls més estrictes sobre l'ús de la identitat.