• 13 foști și actuali angajați ai OpenAI și Google DeepMind semnează o scrisoare prin care avertizează asupra riscurilor legate de tehnologia AI.
  • Printre riscurile identificate: dezinformarea sau adâncirea inegalităților, care ar putea duce la „extincția umanității”.
  • Cei 13 solicită companiilor care dezvoltă AI să faciliteze un cadru prin care angajații să semnaleze eventuale riscuri, potrivit Yahoo Finance.

Un grup de foști și actuali angajați ai companiilor de AI avertizează asupra riscurilor legate de noile tehnologii. 11 dintre cei care semnează scrisoarea deschisă sunt din sfera OpenAI, ceilalți doi din Google DeepMind. Ei susțin că firmele care dezvoltă sisteme AI pun partea financiară înaintea siguranței.

„Nu considerăm că structurile de guvernață corporativă sunt suficiente pentru a schimba asta”, se arată în scrisoare. O tehnologie AI nereglementată poate duce la dezinformare și la pierderea independenței sistemelor. În plus, poate provoca adâncirea inegalităților, care ar duce la „extincția umanității”.

Ce contestă angajații OpenAI și DeepMind, în scrisoarea deschisă

Cercetătorii au găsit exemple de imagini generate de sistemele OpenAI și DeepMind care dezinformează în contextul campaniei electorale. Asta în ciuda politicilor care blochează content de acest tip.

Titlurile zilei

CARE-I IMPACTUL ECONOMIC?
COPIII SEPHORA FAC DEZASTRU

Companiile de AI au „prea puține obligații” de a partaja informații despre capabilitățile și limitările sistemelor proprii cu guvernele. Nu poți avea încredere că firmele vor transmite informațiile voluntar, spun semnatarii scrisorii.

Grupul solicită companiilor să construiască un cadru prin care foștii și actualii angajați să semnaleze eventuale riscuri. Plus eliminarea unor eventuale acorduri de confidențialitate care au rolul de a opri criticile.

Este doar ultima dintre scrisorile deschise care abordează riscurile legate de tehnologia AI.

Într-o acțiune separată, OpenAI anunță blocarea a cinci operațiuni care foloseau modelele AI ale companiei în activități înșelătoare.