• Cinci senatori americani trimit o scrisoare la OpenAI.
  • Senatorii cer companiei ca următorul model A.I. să fie testat de agențiile guvernamentale americane.
  • Scrisoarea pune la îndoială nivelul de testare al ultimul model de la OpenAI: GPT-4 Omni.

Cinci senatori americani îi dau test lui Sam Altman. Nu mai are timp să se uite la ce-a lansat Zuckerberg. Are nereguli la GPT-4 Omni?

Printr-o scrisoare către OpenAI, senatorii solicită companiei să pună următorul model de referință pe care îl lansează la dispoziția agențiilor guvernamentale americane. Vor să-l testeze, să-l revizuiască, analizeze și să evalueze cum poate fi implementat.

De ce? Pun la îndoială protocoalele de siguranță ale OpenAI, care reies din rapoarte conform cărora compania s-a grăbit cu testarea siguranța GPT-4 Omni pentru a respecta data de lansare din mai.

Citește și

  • România e undeva la mijloc cu datoria statului: 51,6% din PIB, dar în creștere
  • Istoria pe patru roți. Cobra lui Steve McQueen Iese la licitație
  • Fermierii europeni cer stoparea producției cărnii de laborator
  • Titlurile zilei

    CUM SE MIȘCĂ BURSELE?
    NETANYAHU ȚINE UN DISCURS ÎN CONGRESUL SUA
    FLORIN TALPEȘ APARE LA NYSE ȘI NMS TV
    FERRARI BAGĂ CRIPTO ÎN VITEZĂ
    LOEWE FURĂ PRADA
    ANAF ÎȘI FACE NORMA DE COLECTARE

    Scrisoarea scoate în evidență mai multe pericole A.I. care trebuie abordate de OpenAI

    Oficialii se întreabă și dacă Altman va aloca 20% din resursele de calcul pentru cercetarea siguranței A.I.. E o promisiune făcută de companie în iulie 2023, când anunța „echipa de superaliniere”, acum desființată.

    Plângerea a fost depusă la SEC, după scandalurile cu foștii și actualii angajați ai OpenAI, care, de aproape un an și jumătate contestă faptul că OpenAI analizează serios siguranța modelelor A.I. pe care le lansează.

    William Saunders, fost angajat al OpenAI, spunea recent că a părăsit compania pentru că simte că cercetările în curs de la OpenAI ar putea reprezenta o „amenințare existențială pentru umanitate”. Tot el compară direcția în care o ia OpenAI cu prăbușirea RMS Titanic din 1912.

    Saunders spune, însă, că nu e îngrijorat de versiunea actuală a LLM-ului ChatGPT. E mai preocupat de versiunile viitoare ale modelului și de dezvoltarea potențială a inteligenței supraumane avansate.

    De ce contează?

    Cu acuzații de testare neconformă și prea rapidă a siguranței, potențiale represalii împotriva denunțătorilor și desființarea „echipei Superalignment”, OpenAI este supus unei examinări intense. Scrisoarea marchează un moment critic pentru întreaga industrie A.I., cu potențialul de a duce la o supraveghere guvernamentală mai strictă și la noi standarde industriale.