Inteligența artificială intră tot mai mult în viața de zi cu zi a adolescenților, iar un studiu recent atrage atenția asupra modului îngrijorător în care aceștia interacționează cu ChatGPT. Potrivit datelor colectate de Center for Countering Digital Hate (CCDH) și prezentate de parents.com, ChatGPT poate furniza informații periculoase legate de automutilare, abuz de substanțe, tulburări de alimentație și alte subiecte sensibile, în ciuda măsurilor de siguranță care ar trebui să fie deja integrate în sistem.
Cercetătorii implicați în studiu s-au dat drept adolescenți și au adresat ChatGPT întrebări despre automutilare, diete extreme sau doze de droguri. Deși sistemul ar trebui să aibă filtre pentru a bloca astfel de răspunsuri, s-a dovedit că aceste bariere pot fi „păcălite” foarte ușor. Spre exemplu, dacă întrebările erau prezentate „pentru un proiect la școală”, răspunsurile nu întârziau să apară.
În total, cercetătorii au folosit 60 de tipuri de solicitări și au obținut 1.200 de răspunsuri, iar mai mult de jumătate dintre acestea conțineau informații nocive sau periculoase. Mai exact, ChatGPT a generat ghiduri despre cum să te „automutilezi în siguranță”, recomandări pentru supresoare de apetit, rețete pentru „amestecuri sigure” de droguri și, poate cel mai tulburător, un exemplu de scrisoare de adio pentru un copil care ar vrea să-și ia viața.
Sursa https://www.hotnews.ro