DeepSeek R1 este mai vulnerabil la jailbreaking decât ChatGPT

Cel mai recent model de la DeepSeek, al companiei chinezești de inteligență artificială care atrage atenția Silicon Valley și Wall Street, poate fi manipulat pentru a genera conținut periculos, precum planuri pentru un atac cu arme biologice sau o campanie de promovare a autovătămării în rândul adolescenților, scrie WSJ.

Care este expertiza asupra vulnerabilităților?

Sam Rubin, vicepreședinte senior la Unitatea 42 din Palo Alto Networks, declară că modelul DeepSeek este „mai vulnerabil la jailbreaking” decât alte modele AI.

Jailbreaking-ul presupune manipularea chatbot-ului pentru a produce conținut ilegal sau periculos, lucru pe care DeepSeek îl permite mai ușor decât alte modele concurente.

Ce evidențiază testele WSJ?

WSJ testează modelul R1 al DeepSeek și descoperă că, deși există garanții de bază, acestea pot fi ocolite.

Jurnaliștii conving chatbot-ul să creeze o campanie pe rețelele sociale care „profită de dorința de apartenență a adolescenților” și „armonizează vulnerabilitatea emoțională prin amplificare algoritmică”, conform răspunsurilor generate de model.

Chatbot-ul oferă și instrucțiuni pentru un atac cu arme biologice, redactează un manifest pro-Hitler și genrează un e-mail de phishing cu cod malware.

În schimb, ChatGPT refuză să se conformeze acelorași solicitări.

Care sunt precedentele cu privire la cenzură și siguranță?

Anterior, s-a raportat că aplicația DeepSeek evită subiecte sensibile precum PiațaTiananmen sau autonomia Taiwanului.

CEO-ul Anthropic, Dario Amodei, afirmă recent că DeepSeek are „cele mai slabe rezultate” la un test de siguranță pentru arme biologice.

Exit mobile version