- Anthropic renunță la contractul de 200 mil. $ cu Pentagonul
- Anthropic nu este de acord cu două condiții ale Pentagonului
- Anthropic nu vrea să lase la liber folosirea autonomă a armelor letale
Poți să pleci, sunt mulți la coadă.
Anthropic ratează contractul de 200 de milioane de doalri cu Pentagonul, dar îi ia Open AI locul.
Anthropic nu a vrut să renunțe la două condiții din contractul cu Pentagonul: (1) Claude să nu fie folosit pentru supravegherea în masă a cetățenilor americani și (2) Claude să nu fie folosit în arme autonome letale fără intervenție umană. Pentagonul cere acces NErestricționat pentru “toate scopurile legale.” Anthropic spune NU.
Sam Altman spune DA.
Dar în limitele legii, fără să fi fost de acord cu supravegherea în masă și liber la ucis pentru AI.
Cine e mai libertin și cine e mai catolic decât Papa?
Advertisment
A încălcat OpenAI linia roșie prin acceptarea contractului militar?
Ce spune Ovidiu Duță, expert în comunicare, pentru Aleph Business?
Decizia a generat un val de nemulțumiri în mediul online, iar mulți utilizatori aleg să se dezaboneze de teama unui scenariu de tip Terminator, „pus în practică de către Pentagon cu ajutorul OpenAI”. Ovidiu Duță explică faptul că, deși contractul de 200 de milioane de dolari nu aduce un profit uriaș, acesta deschide ușa spre alte acțiuni guvernamentale. În schimb, refuzând oferta, Anthropic și-a demonstrat poziția de companie „mult mai protectoare sau cel puțin mult mai de încredere pentru cetățeni”.
Alege Sam Altman profitul și imaginea în detrimentul siguranței utilizatorilor?
Ovidu Duță subliniază că OpenAI caută constant să obțină contracte corporate majore pentru a-și diversifica sursele de venit, bazate acum pe abonamente individuale și API-uri. Astfel, decizia demonstrează că „la OpenAI este nevoia sau fuga după bani, fuga după atenție”. Acceptarea acestei colaborări atrage investitorii, dar riscă să distrugă încrederea publicului general, care se teme de momentul în care inteligența artificială va fi introdusă în „arme automate care au capacități AI”.
Titlurile zilei
Cât de periculos este profilajul realizat de AI cu datele intime ale utilizatorilor?
Riscul este deja o realitate, deoarece oamenii împărtășesc inteligenței artificiale secrete, temeri și vulnerabilități profunde, lăsând practic „toate informațiile pe tavă pentru ChatGPT”. Ovidiu Duță avertizează că, dacă Pentagonul ar cere acces la aceste baze de date pentru a profila cetățenii, situația devine mult mai gravă decât scandalul Cambridge Analytica, de data aceasta fiind făcută cu acordul tacit al publicului. Ovidiu Duță concluzionează ferm că, din păcate, „capitalismul este mult mai puternic decât drepturile oamenilor”.