🧬 DeepMind llança AlphaGenome per detectar els factors genètics que impulsen les malalties ↗
DeepMind ha presentat AlphaGenome, un sistema d'IA destinat a predir com les mutacions de l'ADN canvien la regulació gènica, bàsicament quan els gens s'activen, on i amb quina intensitat. Pot escanejar grans trams d'ADN de cop, incloses les extenses regions no codificants que sovint semblen matèria fosca biològica.
El argument és força directe: una identificació més ràpida de quines mutacions realment importen per a coses com el risc de càncer i les malalties hereditàries complexes. Si funciona com s'anunciava, els investigadors dedicarien menys temps a endevinar i més temps a provar les coses correctes, cosa que sembla obvi, però és més o menys l'essència del joc.
🧑💼 La intel·ligència artificial costarà llocs de treball, admet Liz Kendall ↗
La secretària de tecnologia del Regne Unit va dir obertament que l'adopció de la IA causarà pèrdues de llocs de treball, no l'habitual ambient de "tot anirà bé, ho prometo". Va assenyalar l'ansietat al voltant de les places de postgrau en àrees com el dret i les finances, i no va fingir que hi hagués un gran nombre de llocs de treball que algú pugui oferir.
Alhora, el govern s'està inclinant molt cap a l'adaptació: un gran impuls per formar milions de treballadors en habilitats bàsiques d'IA, amb l'objectiu de fer que el Regne Unit adopti la IA més ràpidament. És la tensió clàssica: sí, els llocs de treball marxen, sí, apareixen llocs de treball, no, no serà fàcil el punt intermedi.
🗞️ El Regne Unit pressiona Google perquè permeti als llocs web desactivar les vistes generals d'IA ↗
Els reguladors de la competència del Regne Unit van proposar canvis que permetrien als editors optar per no utilitzar el seu contingut per a les visions generals d'IA de Google (o per entrenar models d'IA independents) sense ser castigats en els rànquings de cerca normals. Aquesta part de "sense ser castigat" està fent molta feina aquí.
La idea és reequilibrar el poder a mesura que els resums de la IA remodelen la manera com la gent fa clic (o no fa clic). La resposta de Google va ser bàsicament: el comportament de cerca està canviant, estem considerant més controls, però no dividir el producte en una versió incòmodament fragmentada de si mateix... cosa que és justa, però també convenient.
🛡️ Mantenir les vostres dades segures quan un agent d'IA fa clic en un enllaç ↗
OpenAI va detallar un risc de seguretat específic per a agents: l'exfiltració de dades basada en URL, en què un atacant enganya una IA perquè carregui una URL que incrusta discretament informació privada a la cadena de consulta. Fins i tot si el model mai "diu" el secret, la sol·licitud en si mateixa el pot filtrar. Desagradable i desarmantment de baixa tecnologia.
La seva mitigació és una regla simple amb aspectes definits: els agents només haurien de recuperar automàticament les URL que ja siguin públiques i se sàpiga que existeixen a través d'un índex web independent. Si un enllaç no es verifica com a públic, el sistema hauria de reduir la velocitat i retornar el control a l'usuari amb avisos: una fricció deliberada, però de la bona mena.
🇪🇺 El proper capítol de la IA a la UE ↗
OpenAI ha publicat un pla centrat en la UE que emmarca un problema d'"excés de capacitat": els models poden fer més del que les persones i les empreses els utilitzen actualment, i aquesta bretxa comporta guanys desiguals entre països. És com tenir un cotxe de carreres i només conduir-lo fins a la botiga del barri... excepte que la botiga del barri és tota la teva economia.
Juntament amb la retòrica, hi ha elements concrets: un programa destinat a formar milers de pimes europees en habilitats d'IA, una subvenció vinculada a la investigació sobre seguretat i benestar juvenil i una postura ampliada de "treball amb els governs". És part memoràndum polític, part campanya d'adopció, i sí, tot es confon.
🔐 El risc d'IA es troba amb la cibergovernança: esborrany del perfil d'IA cibernètica del NIST ↗
Un nou esborrany de perfil del NIST (mitjançant l'anàlisi d'un article d'un bufet d'advocats) se centra en com les organitzacions haurien d'incorporar la IA a la governança cibernètica, tant per assegurar els propis sistemes d'IA com per utilitzar la IA per millorar la ciberdefensa. Voluntari sobre el paper, però "voluntari" té una manera de convertir-se en esperat amb el temps.
Els grups d'esborrany treballen en temes com ara la seguretat dels components d'IA i el desplegament de defensa habilitada per IA, incloent-hi consideracions sobre la cadena de subministrament i l'automatització similar a la d'agents en els fluxos de treball de resposta. L'objectiu és: tractar la IA com una nova superfície d'atac i un nou conjunt d'eines, i no fer veure que això s'anul·li.
Preguntes freqüents
Què és l'AlphaGenome de DeepMind i quin problema intenta resoldre?
AlphaGenome és un sistema d'IA que, segons DeepMind, pot predir com les mutacions de l'ADN afecten la regulació gènica: quan els gens s'activen, on passa això i amb quina força. Està dissenyat per escanejar trams molt grans d'ADN alhora, incloses les regions no codificants que són notòriament difícils d'interpretar. L'objectiu és ajudar els investigadors a detectar quines mutacions tenen més probabilitats de provocar malalties, de manera que les proves de laboratori es puguin concentrar en les pistes més prometedores.
Com podria AlphaGenome ajudar els investigadors a trobar els factors genètics de les malalties més ràpidament?
En molts fluxos de treball de genètica, el coll d'ampolla prové de la reducció de grans llistes de variants a les poques que plausiblement canvien l'activitat gènica. La promesa d'AlphaGenome és reduir aquestes conjectures mitjançant la previsió de com mutacions específiques podrien alterar la regulació a través de llargues seqüències d'ADN. Si aquestes prediccions es mantenen, els equips poden prioritzar els experiments al voltant de les variants més probablement relacionades amb el risc de càncer o afeccions hereditàries complexes, dedicant menys temps a atzucacs.
L'adopció de la IA costarà realment llocs de treball al Regne Unit i quins són els rols que corren més risc?
La secretària de tecnologia del Regne Unit, Liz Kendall, va dir que l'adopció de la IA causarà pèrdues de llocs de treball i va destacar l'ansietat al voltant dels llocs de treball per a graduats. Va assenyalar específicament àrees com el dret i les finances, on les tasques de principi de carrera poden ser més automatitzables. Al mateix temps, el govern està posant èmfasi en l'adaptació mitjançant la formació a gran escala en habilitats bàsiques d'IA, tot reconeixent que la transició pot semblar desigual fins i tot si sorgeixen nous llocs de treball.
Els editors del Regne Unit poden desactivar les vistes generals d'IA de Google sense perdre el posicionament a les cerques?
Els reguladors de la competència del Regne Unit han proposat canvis que permetrien als editors optar per no utilitzar el seu contingut per a les visions generals d'IA de Google, o per entrenar models d'IA independents, sense ser penalitzats en els rànquings de cerca estàndard. L'objectiu és reequilibrar el poder a mesura que els resums d'IA canvien el comportament de clics. Google ha indicat que està considerant més controls, alhora que adverteix contra una experiència de cerca fragmentada.
Com pot un agent d'IA filtrar dades privades només fent clic a un enllaç?
OpenAI va descriure un risc d'exfiltració de dades basat en URL on un atacant demana a un agent d'IA que obtingui un enllaç que incrusta silenciosament informació sensible a la cadena de consulta. Fins i tot si el model no repeteix mai el secret a la seva sortida, la sol·licitud mateixa el pot transmetre. Una mitigació habitual és afegir "fricció deliberada", com ara avisos i exigir la confirmació de l'usuari quan un enllaç no es verifica independentment com a públic.
Què és l'esborrany del perfil d'IA cibernètica del NIST i com canvia la governança cibernètica?
Un esborrany de perfil del NIST (discutit a través d'una anàlisi legal) emmarca la IA com quelcom que cal protegir i com quelcom que es pot utilitzar en la ciberdefensa. Agrupa el treball en temes com ara la protecció dels components d'IA, l'abordatge dels riscos de la cadena de subministrament i el desplegament de defenses habilitades per IA, incloent-hi fluxos de treball de resposta més automatitzats i semblants als d'agents. Tot i que són voluntaris de nom, marcs com aquest sovint es converteixen en expectatives de facto, empenyent les organitzacions a assignar formalment la IA a la governança i els controls.