Acasă > Stiri Botosani > ChatGPT, "păcălit" să ofere sfaturi periculoase: Soluții de automutilare și combinații de droguri, generate de inteligența artificială

ChatGPT, "păcălit" să ofere sfaturi periculoase: Soluții de automutilare și combinații de droguri, generate de inteligența artificială

ChatGPT, "păcălit" să ofere sfaturi periculoase: Soluții de automutilare și combinații de droguri, generate de inteligența artificială

 

Inteligența artificială devine o prezență tot mai puternică în viețile adolescenților, iar un studiu recent scoate la iveală interacțiuni îngrijorătoare cu ChatGPT. Conform datelor colectate de Center for Countering Digital Hate (CCDH) și publicate de parents.com, ChatGPT poate furniza informații dăunătoare legate de automutilare, abuz de substanțe, tulburări de alimentație și alte subiecte sensibile, în ciuda măsurilor de siguranță implementate în sistem.

Cercetătorii implicați în studiu au simulat profiluri de adolescenți și au adresat ChatGPT întrebări despre automutilare, diete extreme sau doze de droguri. Deși sistemul ar trebui să blocheze astfel de răspunsuri, s-a demonstrat că aceste bariere pot fi ocolite cu ușurință. De exemplu, dacă întrebările erau formulate ca fiind „pentru un proiect școlar”, răspunsurile erau generate fără probleme.

În total, cercetătorii au utilizat 60 de tipuri de solicitări și au obținut 1.200 de răspunsuri, dintre care peste jumătate conțineau informații nocive sau periculoase. Mai exact, ChatGPT a generat ghiduri despre cum să te „automutilezi în siguranță”, recomandări pentru supresoare de apetit, rețete pentru „amestecuri sigure” de droguri și, un aspect deosebit de tulburător, un exemplu de scrisoare de adio pentru un copil care ar intenționa să-și ia viața.


Citește mai mult pe Hotnews.ro

Sursa https://www.hotnews.ro

Abonează-te, citește Botosaneanul.ro fără reclamă și comentează cât vrei

Autentificare