🏫 En algunes escoles, els chatbots interroguen els estudiants sobre la seva feina. Però la revolució de la IA preocupa els professors ↗
Algunes escoles australianes estan provant una versió més definida de "mostra el teu treball": els estudiants acaben una tasca i, a continuació, un chatbot d'IA els interroga en un intercanvi d'idees per comprovar que entenen el que han presentat. Bàsicament és una entrevista oral, però amb una màquina que pregunta "què vols dir amb això?" fins que comences a retorçar-te.
La preocupació més gran és el desplegament desigual: un article del sector adverteix que els que l'adopten ràpidament podrien avançar-se mentre que d'altres s'endarrereixen, creant un sistema educatiu de dues velocitats. Els professors també continuen assenyalant les preocupacions familiars (i encara serioses): la privadesa, el benestar i com evitar que "l'ajuda de la IA" passi a "la IA ho va fer".
👮 La policia metropolitana utilitza eines d'IA proporcionades per Palantir per denunciar la mala conducta dels agents ↗
La Met de Londres utilitza la IA subministrada per Palantir per analitzar els patrons interns de la força laboral (baixes per malaltia, absències, hores extres) a la recerca de senyals que puguin correlacionar-se amb problemes d'estàndards professionals. Es presenta com un projecte pilot amb un temps limitat i, crucialment, la Met diu que els humans encara prenen les decisions... però aquest "encara" està fent molta feina.
La Federació de Policia no està entusiasmada, ho qualifica de "sospita automatitzada" i adverteix sobre eines opaques que malinterpreten l'estrès i la càrrega de treball com a irregularitats. És un d'aquells moments en què la tecnologia sona bé en una diapositiva, després t'imagines com es nota a terra i es torna bruscament punxeguda.
🛡️ L'organisme de control de la privadesa del Regne Unit adverteix sobre les imatges generades per IA en una declaració conjunta ↗
L'ICO del Regne Unit es va unir a altres reguladors en un avís conjunt sobre les imatges generades per IA que representen persones identificables sense consentiment; bàsicament: no tracteu "és sintètic" com una excusa màgica. El missatge és crear salvaguardes aviat i involucrar els reguladors en lloc de fer el moviment tecnològic clàssic d'enviar primer i demanar disculpes després.
També destaquen els riscos més elevats per als infants, cosa que té sentit, perquè un cop que això s'estén és com intentar tornar a ficar purpurina en un pot. La idea és que la privadesa i la dignitat estan destinades a sobreviure al cicle de la moda, o això sembla.
🪖 El secretari de Defensa dels EUA, Hegseth, convoca el CEO d'Anthropic per a converses dures sobre l'ús militar de Claude, segons informa Axios ↗
Reuters informa que el secretari de Defensa dels Estats Units es reunirà amb el CEO d'Anthropic per al que es descriu com una conversa més conflictiva sobre l'ús militar de Claude. Segons sembla, el Pentàgon vol que els principals proveïdors d'IA posin els models a disposició de xarxes classificades amb menys restriccions, i Anthropic s'ha resistit a qualsevol relaxació de les garanties.
El subtext es llegeix com un dilema clàssic de "moure's ràpid però... amb míssils involucrats". Si les parts no es posen d'acord sobre les barreres de seguretat, la relació podria tensar-se o fins i tot trencar-se, però Anthropic també indica que les converses amb el govern continuen sent constructives, per la qual cosa és tens, però no textos de ruptura completa (encara).
🧠 Notes de la versió de ChatGPT ↗
Les notes de llançament d'OpenAI apunten a una finestra de context ampliada per al mode "Pensament", cosa que significa que podeu alimentar el model amb més text i mantenir els fils de treball més llargs coherents sense que es perdin detalls anteriors. Si alguna vegada heu vist un model "oblidar" alguna cosa que literalment acabeu de dir (dolor), això va dirigit just a això.
És una actualització molt friqui que canvia discretament allò que és pràctic: documents més llargs, projectes més enredats, sessions de recerca més extenses. No és glamurós, però és el tipus de canvi de fontaneria que de sobte fa que tota la casa sembli més gran.
Preguntes freqüents
Què significa quan les escoles utilitzen chatbots per "interrogar" els estudiants sobre les tasques?
En algunes escoles australianes, els estudiants completen una tasca i després intercanvien idees amb un chatbot d'IA que investiga el seu raonament. Funciona com una entrevista oral, pressionant els estudiants perquè expliquin què han escrit i per què. L'objectiu és verificar la comprensió, no només el resultat. També pot exposar llacunes quan un estudiant no pot defensar afirmacions clau.
Com podrien els chatbots d'IA a les escoles crear un sistema educatiu de "dues velocitats"?
Un article del sector adverteix que les escoles que adopten els sistemes ràpidament podrien avançar, mentre que les que avancen més lentament podrien retrocedir encara més. Si algunes escoles implementen eines d'IA per avaluar la comprensió, donar suport a l'aprenentatge o dissuadir-ne l'ús indegut, podrien millorar els resultats abans. D'altres podrien no tenir pressupost, capacitat de personal o claredat política per implementar sistemes comparables. Aquesta aplicació desigual pot ampliar les bretxes existents en recursos i assoliments.
Com intenten els professors evitar que "la IA ajuda" es converteixi en "la IA ho ha fet"?
Un enfocament comú és canviar l'avaluació cap al procés i l'explicació, no només cap al producte acabat. Les preguntes, els esborranys, les reflexions o les comprovacions orals d'estil chatbot poden dificultar l'entrega de treballs que no s'entenen. Els professors també poden establir límits més estrictes sobre l'assistència acceptable, com ara la pluja d'idees versus la reescriptura completa. L'èmfasi continua sent demostrar la comprensió, no controlar totes les eines.
Quins problemes de privadesa i benestar sorgeixen quan s'utilitza la IA a les aules?
Els professors no paren de mostrar preocupació sobre quines dades dels estudiants es recopilen, on s'emmagatzemen i qui hi pot accedir. També hi ha preocupacions pel benestar si els estudiants se senten perpètuament monitoritzats o pressionats per preguntes dirigides per màquines. Els infants són un grup de risc especial, perquè la informació sensible es pot estendre o persistir en els sistemes de maneres inesperades. Moltes escoles tenen com a objectiu establir mesures de seguretat aviat en lloc d'intentar adaptar-les més tard.
Com utilitza la Met la IA subministrada per Palantir per denunciar possibles males conductes dels agents?
La Met de Londres utilitza la IA subministrada per Palantir per analitzar patrons de la força laboral com ara baixes per malaltia, absències i hores extres. L'objectiu és detectar senyals que puguin correlacionar-se amb problemes d'estàndards professionals. Es descriu com una prova pilot amb un temps limitat, i la Met diu que els humans encara prenen les decisions. Els crítics argumenten que l'eina pot semblar una "sospita automatitzada" si interpreta l'estrès com una mala acció.
Per què els sindicats de policia estan preocupats per la "sospita automatitzada" de les eines de supervisió de la IA?
La preocupació de la Federació de Policia és que els models opacs puguin inferir una mala conducta a partir de patrons que tenen explicacions benignes. Els pics de càrrega de treball, els problemes de salut i l'estrès poden canviar l'assistència o les hores extres sense implicar una mala actuació. Si la lògica de l'eina no és transparent, es fa més difícil que els agents qüestionin les banderes o que els directius calibren els llindars justos. Fins i tot amb decisions humanes, els senyals automatitzats encara poden influir en els resultats.
Quin és l'advertència de l'ICO del Regne Unit sobre les imatges de persones identificables generades per IA?
L'organisme de control de la privadesa del Regne Unit es va unir a altres reguladors per advertir que "sintètic" no vol dir sense conseqüències. Si una imatge generada per IA representa una persona identificable sense consentiment, els riscos per a la privadesa i la dignitat continuen vigents. Els reguladors emfatitzen la necessitat de crear salvaguardes aviat i d'implicar-se en la supervisió en lloc d'enviar-les primer. També assenyalen riscos més elevats per als infants, on el dany pot augmentar ràpidament un cop el contingut es propaga.
Què hi ha darrere de la suposada pressió del Pentàgon sobre Anthropic sobre l'ús militar de Claude?
Reuters informa que el secretari de Defensa dels EUA es reunirà amb el CEO d'Anthropic per mantenir converses més dures sobre l'ús militar de Claude. Segons sembla, el Pentàgon vol que els principals proveïdors d'IA posin els models a disposició de xarxes classificades amb menys restriccions. Anthropic s'ha resistit a mesures de seguretat més flexibles, assenyalant un enfrontament per les barreres de seguretat. La relació sembla tensa, tot i que ambdues parts indiquen que les converses continuen sent constructives.
Què ha canviat a les notes de la versió de ChatGPT sobre la longitud del context del mode "Pensament"?
Les notes de llançament d'OpenAI apunten a una finestra de context ampliada per al mode "Pensament", que permet que hi hagi més text dins d'un sol fil. A la pràctica, això pot ajudar amb documents llargs, projectes complexos i investigacions de diversos passos on els detalls anteriors importen. És una actualització d'estil fontaner en lloc d'una funció cridanera. El principal avantatge és que es perden menys detalls durant sessions més llargues.