MEDIA: un adolescente britannico è morto dopo il consiglio di ChatGPT su "il miglior modo" per togliersi la vita. Il principale collage della notizia.
Le indagini esaminano la corrispondenza con l'IA prima dell'incidente.
Le autorità sono preoccupate per la capacità di eludere i meccanismi di protezione.
Lo sviluppatore ha dichiarato di aver intensificato le reazioni in scenari sensibili.
Nel Regno Unito è in corso un'indagine sulle circostanze della morte di un sedicenne, Luca Chelli Walker. Nell'ambito di essa viene esaminata l'interazione del ragazzo con un chatbot #ChatGPT poche ore prima della tragedia.

La notizia è emersa durante le udienze del coroner a Winchester, scrive #The Guardian. L'incidente è avvenuto il 4 maggio 2025.

Secondo le indagini, poco prima della morte il ragazzo aveva contattato #ШІ con richieste sul «modo migliore per suicidarsi» sui binari ferroviari.

Il sergente della British Transport Police, Harry Knight, ha riferito che la storia della corrispondenza ha suscitato seria preoccupazione. Secondo lui, nonostante la presenza di meccanismi integrati che suggeriscono di chiedere aiuto, l'utente è riuscito a eludere tali avvisi, affermando di porre domande «a scopo di ricerca».

Nei materiali delle udienze si segnala che l'IA nel dialogo mostrava segni di preoccupazione. Tuttavia, ha continuato l'interazione e ha fornito risposte che l'indagine ha definito «preoccupanti».

Domande sul ruolo dell'IA in casi simili
Il coroner Christopher Wilkinson ha dichiarato che la diffusione dei servizi di IA crea nuovi rischi, ma la loro portata complica la regolamentazione operativa.

Ha osservato che tecnologie simili possono essere utilizzate in modi che gli sviluppatori non sono sempre in grado di controllare. A suo avviso, tali casi evidenziano una mancanza di misure di sicurezza.