„Acesta va fi un job stresant și vei intra direct în pâine aproape imediat”, a scris Sam Altman, CEO-ul OpenAI, într-un mesaj în care a anunțat pe rețelele de socializare că firma care a creat ChatGPT angajează un director pentru anticiparea și prevenirea riscurilor („head of preparadness”), relatează Gizmodo.
În schimbul a 555.000 de dolari pe an, persoana care va ocupa poziția ar urma să „extindă, consolideze și coordoneze” programul de pregătire deja existent în cadrul Departamentului pentru sisteme de siguranță al OpenAI.
Această divizie a companiei construiește mecanismele de protecție care, în teorie, fac ca modelele OpenAI să „se comporte conform intențiilor în contexte reale”.
Însă nu susține chiar OpenAI că modelele sale de inteligență artificială se comportă deja conform intențiilor dezvoltatorilor? Site-ul tech Gizmodo amintește că anul acesta ChatGPT a continuat să halucineze în documente juridice, a fost vizat de sute de plângeri depuse la autoritățile de reglementare din SUA, a fost acuzat inclusiv în instanțe de provocarea sau exacerbarea unor crize de sănătate mintală grave în rândul utilizatorilor și, aparent, transformarea unor imagini cu femei îmbrăcate în „deepfake”-uri cu ele în costum de baie.
Sora, modelul OpenAI de generare a imaginilor pe bază de instrucțiuni scrise, a trebuit să-și piardă capacitatea de a genera videoclipuri cu figuri precum Martin Luther King Jr., deoarece utilizatorii abuzau de această funcționalitate pentru a face personalități istorice respectate să spună practic orice.
Atunci când cazuri legate de problemele produselor OpenAI ajung în instanță, există un argument juridic potrivit căruia utilizatorii ar fi abuzat de produsele companiei. În noiembrie, un document depus în instanță de avocații OpenAI a invocat încălcări ale regulilor ChatGPT drept cauză potențială a morții lui Adam Raine, un adolescent în vârstă de 16 ani care s-a sinucis după ce a cerut sfaturi chatbot-ului despre acest lucru.
Sursa https://www.hotnews.ro