Yoshua Bengio, profesorul de la Universitatea Montreal ale cărui cercetări au contribuit la punerea bazelor învățării automate moderne („deep learning”), a fost în ultimii ani una dintre cele mai alarmiste voci din industria inteligenței artificiale, avertizând că sistemele superinteligente ar putea reprezenta o amenințare existențială pentru omenire. Însă într-un nou interviu acordat revistei Fortune, Bengio spune că cele mai recente cercetări ale sale indică o soluție tehnică pentru cele mai mari riscuri de siguranță ale IA.
Bengio a lansat în iunie o organizație nonprofit pe care a numit-o LawZero și pe care a creat-o pentru a dezvolta noi abordări tehnice privind siguranța inteligenței artificiale, pe baza cercetărilor pe care el le coordonează. În noiembrie anul trecut, Bengio a devenit cel mai citat cercetător din lume și primul care a trecut de pragul de un milion de citări pe Google Scholar, după cum arătau revista Nature și alte publicații științifice la momentul respectiv.
Cu susținere financiară din partea Fundației Gates și a altor organizații nonprofit renumite, LawZero a anunțat săptămâna aceasta că a numit un Consiliu de Administrație de profil înalt și un Consiliu Consultativ Global, menite să ghideze cercetările lui Bengio și să promoveze ceea ce el numește o „misiune morală”: dezvoltarea inteligenței artificiale ca bun public global.
Consiliul de Administrație din care face parte și Bengio îi include pe Mariano-Florentino Cuéllar, președintele Carnegie Endowment for International Peace, și pe faimosul istoric Yuval Noah Harari.
Revista Fortune subliniază că trecerea lui Bengio către o perspectivă mai optimistă este remarcabilă. În 2019, el a fost recompensat cu Premiul Turing, supranumit „Nobelul în informatică”, alături de alți doi cercetători: Geoffrey Hinton și Yann LeCun. Cercetările lor în domeniul învățării automate le-a atras și porecla de „Nașii DeepLearning” sau „Nașii AI”, chiar dacă Hinton este denumit adesea în articole de presă „Nașul AI”. Munca sa în domeniu i-a adus în 2024 și Premiul Nobel pentru Fizică, deși recompensarea sa cu prestigioasa distincție nu a fost lipsită de controverse.
Asemenea lui Hinton, Bengio a devenit din ce în ce mai îngrijorat de riscurile sistemelor AI tot mai puternice după lansarea ChatGPT în noiembrie 2022. LeCun, în schimb, este de părere că sistemele de inteligență artificială de astăzi nu reprezintă riscuri catastrofale pentru omenire.
Bengio povestește în interviul pentru Fortune că, în urmă cu trei ani, se simțea „disperat” în legătură cu direcția în care se îndreptaAI. „Nu aveam nicio idee despre cum am putea rezolva problema”, și-a amintit el. „Cam atunci am început să înțeleg posibilitatea riscurilor catastrofale generate de inteligențe artificiale foarte puternice”, inclusiv pierderea controlului asupra sistemelor superinteligente.
Ceea ce s-a schimbat nu a fost o descoperire singulară, ci un șir de idei care l-a făcut să creadă că există o altă cale de urmat. „Datorită muncii pe care o desfășor la LawZero, mai ales de când am creat organizația, sunt acum foarte încrezător că este posibil să construim sisteme de inteligență artificială care să nu aibă obiective ascunse, agende ascunse”, spune el. El afirmă că încrederea sa în viitorul umanității a crescut cu „o marjă mare” anul trecut.
În centrul acestei încrederi se află o idee pe care Bengio o numește „Scientist AI” („AI-cercetător”). În loc să participe la cursa pentru construirea unor agenți din ce în ce mai autonomi – sisteme concepute să rezerve zboruri, să scrie cod, să negocieze cu alte programe sau să înlocuiască lucrători umani – Bengio vrea să facă exact opusul.
Echipa sa cercetează modalități de a construi o inteligență artificială care există în principal pentru a înțelege lumea, nu pentru a acționa în ea.
O AI-cercetător ar fi antrenată să ofere răspunsuri adevărate, bazate pe raționament probabilistic transparent – folosind, în esență, metoda științifică sau alte forme de raționament întemeiate pe logica formală pentru a ajunge la predicții.
Sistemul de inteligență artificială nu ar avea obiective proprii și nu ar optimiza outputurile sale pentru satisfacția utilizatorului sau doar pentru a oferi rezultate. Nu ar încerca să convingă, să lingușească sau să facă pe plac. Iar pentru că nu ar avea obiective, susține Bengio, ar fi mult mai puțin predispus la manipulare, agende ascunse sau înșelăciune strategică.
Modelele de vârf de astăzi sunt antrenate să urmărească obiective – să fie utile, eficiente sau captivante. Însă sistemele care optimizează pentru rezultate pot dezvolta obiective ascunse, pot învăța să inducă în eroare utilizatorii sau pot opune rezistență opririi, spune Bengio.
Sursa https://www.hotnews.ro