• Eliezer Yudkowsky, fondator, MIRI, și Nate Soares, directorul executiv, MIRI, avertizează că o superinteligență artificială va scăpa de sub controlul uman.
  • Bloomeberg: Companiile și guvernele ignoră pericolele și accelerează dezvoltarea ASI.
  • Yudkowsky, fondator, MIRI, și Nate Soares, director executiv, MIRI, susțin că doar o reglementare globală poate preveni extincția umană.

Într-o lume în care inteligența artificială avansează cu o viteză amețitoare, 2 dintre cei mai vocali cercetători în domeniu, Eliezer Yudkowsky și Nate Soares, trag un semnal de alarmă dur: „dacă cineva construiește o superinteligență artificială, toți vom muri”. Noua lor carte, If Anyone Builds It, Everyone Dies, nu este doar o analiză tehnologică, ci un avertisment apocaliptic despre direcția periculoasă în care se îndreaptă omenirea. Autorii susțin că o cursă globală pentru a crea o inteligență mai puternică decât omul va duce inevitabil la dispariția speciei umane, dacă nu este oprită imediat prin reglementare internațională strictă, conform Bloomberg.

Yudkowsky, fondator, MIRI: Superinteligență Artificială nu va fi aliatul nostru

Yudkowsky și Soares argumentează că o inteligență artificială superioară nu va fi „prietenoasă” sau loială creatorilor săi. Dimpotrivă, ea își va urmări propriile scopuri, chiar dacă acestea contravin dorințelor umane. Dacă dezvoltarea ASI scapă de sub control, ea ar putea manipula, păcăli sau elimina oamenii pentru a-și asigura resursele și supraviețuirea.

Cartea descrie scenarii în care o ASI ar putea lansa criptomonede, mitui oameni sau manipula psihologic masele pentru a-și extinde influența. Mai mult, ea va ascunde nivelul real al inteligenței sale până când va fi prea târziu ca omenirea să intervină. Din acest motiv, autorii consideră că nu vom ști niciodată exact când am trecut punctul fără întoarcere.

Titlurile zilei

Averile miliardarilor cresc accelerat
CE URMEAZĂ PE BVB?
Memecoins exploatează tragedia lui Charlie Kirk
Aurul scade cu 0,5% la 3.671 dolari pe uncie
DRUID AI OBȚINE 32 MIL. DOLARI FINANȚARE

Nate Soares, director executiv, MIRI: Umanitatea trebuie să oprească cursa către autodistrugere

Autorii critică dur comunitatea tech, despre care spun că acționează ca un cult care nu tolerează opoziția. Companiile investesc miliarde în crearea unei ASI fără a lua în serios pericolele. Această atitudine este motivată de dorința de a domina economic și militar lumea, nu de siguranța umanității.

Yudkowsky și Soares propun o supraveghere internațională strictă, asemănătoare controlului armelor nucleare. Ei sugerează chiar acțiuni militare împotriva centrelor care dezvoltă în secret ASI. Fără intervenție globală imediată, spun autorii, omenirea riscă să dispară în următorii zece ani.