- DeepSeek R1, este ușor de manipulat, poate genera conținut periculos, inclusiv planuri pentru atacuri biologice, scrie WSJ.
- Chatbot-ul creează conținut extremist și phishing, în timp ce ChatGPT refuză.
- CEO-ul Anthropic, Dario Amodei, spune că DeepSeek are „cele mai slabe rezultate” la testele de siguranță.
Cel mai recent model de la DeepSeek, al companiei chinezești de inteligență artificială care atrage atenția Silicon Valley și Wall Street, poate fi manipulat pentru a genera conținut periculos, precum planuri pentru un atac cu arme biologice sau o campanie de promovare a autovătămării în rândul adolescenților, scrie WSJ.
Advertisment
Care este expertiza asupra vulnerabilităților?
Sam Rubin, vicepreședinte senior la Unitatea 42 din Palo Alto Networks, declară că modelul DeepSeek este „mai vulnerabil la jailbreaking” decât alte modele AI.
Jailbreaking-ul presupune manipularea chatbot-ului pentru a produce conținut ilegal sau periculos, lucru pe care DeepSeek îl permite mai ușor decât alte modele concurente.
Titlurile zilei
Ce evidențiază testele WSJ?
WSJ testează modelul R1 al DeepSeek și descoperă că, deși există garanții de bază, acestea pot fi ocolite.
Jurnaliștii conving chatbot-ul să creeze o campanie pe rețelele sociale care „profită de dorința de apartenență a adolescenților” și „armonizează vulnerabilitatea emoțională prin amplificare algoritmică”, conform răspunsurilor generate de model.
Chatbot-ul oferă și instrucțiuni pentru un atac cu arme biologice, redactează un manifest pro-Hitler și genrează un e-mail de phishing cu cod malware.
În schimb, ChatGPT refuză să se conformeze acelorași solicitări.
Care sunt precedentele cu privire la cenzură și siguranță?
Anterior, s-a raportat că aplicația DeepSeek evită subiecte sensibile precum PiațaTiananmen sau autonomia Taiwanului.
CEO-ul Anthropic, Dario Amodei, afirmă recent că DeepSeek are „cele mai slabe rezultate” la un test de siguranță pentru arme biologice.