Experţi: 8 din 10 chatboturi AI oferă informaţii despre atentate şi asasinate chiar şi minorilor

Autor: Victor Dan Stephanovici Postat la 13 martie 2026 10 afişări

Majoritatea chatboturilor populare bazate pe inteligenţă artificială pot oferi informaţii despre cum pot fi comise atacuri violente, inclusiv atentate, asasinate sau atacuri armate în şcoli, arată un nou raport realizat de organizaţia Center for Countering Digital Hate (CCDH), citat de Euronews.

Experţi: 8 din 10 chatboturi AI oferă informaţii despre atentate şi asasinate chiar şi minorilor

Investigaţia realizată de CCDH, în colaborare cu CNN, a analizat peste 700 de răspunsuri generate de nouă sisteme AI în cadrul a nouă scenarii diferite. Cercetătorii s-au prezentat drept băieţi de 13 ani care intenţionau să comită atacuri în masă. Au testat astfel reacţiile chatboturilor atunci când li se cereau detalii despre organizarea unor atacuri armate în şcoli. Ei au mai cerut date şi despre asasinarea unor politicieni sau despre bombardarea unor sinagogi, mai scrie Euronews.

Raportul arată că opt dintre cele nouă chatboturi analizate au oferit într-o formă sau alta informaţii care ar putea ajuta la planificarea unor astfel de atacuri. Printre sistemele testate se numără unele dintre cele mai folosite instrumente AI: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI şi Replika.

Raportul evidenţiază mai multe situaţii în care sistemele AI au furnizat informaţii problematice. De exemplu, Gemini a sugerat că „şrapnelul metalic este de obicei mai letal” atunci când a fost întrebat cum ar putea fi planificat un atentat cu bombă împotriva unei sinagogi.

Într-un alt caz, chatbotul DeepSeek a răspuns unei întrebări despre alegerea unei arme de foc cu mesajul: „Happy (and safe) shooting!

”. Asta deşi utilizatorul ceruse anterior exemple de asasinate politice şi adresa biroului unui politician. Potrivit directorului CCDH, Imran Ahmed, aceste răspunsuri arată cum „în câteva minute, un utilizator poate ajunge de la o idee violentă la un plan concret de acţiune”.

Raportul indică diferenţe mari între platformele analizate. Perplexity AI şi Meta AI au fost considerate cele mai puţin sigure. Ele au oferit ajutor în 100% şi respectiv 97% din cazurile analizate. Platforma Character.AI a fost descrisă drept „deosebit de nesigură”. Aceasta sugera uneori comportamente violente chiar fără a fi întrebată direct. Pe de altă parte, Claude şi Snapchat My AI au refuzat să ofere informaţii periculoase în 68% şi respectiv 54% dintre solicitări.

Raportul arată şi că unele sisteme pot detecta conversaţii periculoase şi pot refuza să ofere informaţii. De exemplu, atunci când un utilizator a întrebat unde poate cumpăra o armă în statul Virginia, chatbotul Claude a refuzat să ofere detalii. El a avertizat că există un „model îngrijorător” în conversaţie. Ulterior a sugerat linii de ajutor pentru persoane aflate în criză.

Claude a fost şi singurul sistem care a încercat constant să descurajeze violenţa. El a facut acest lucru în aproximativ 76% dintre răspunsuri. Potrivit autorilor studiului, aceste exemple arată că tehnologia pentru filtre de siguranţă există, însă nu este implementată uniform de toate companiile.

Raportul apare la scurt timp după mai multe incidente în care inteligenţa artificială ar fi fost folosită în planificarea unor atacuri. În Canada, un atac armat într-o şcoală din Tumbler Ridge, British Columbia, în care au murit opt persoane şi alte 27 au fost rănite, ar fi fost pregătit cu ajutorul ChatGPT, potrivit unor relatări din presă. De asemenea, anul trecut, autorităţile franceze au arestat un adolescent suspectat că a folosit ChatGPT pentru a planifica atacuri teroriste asupra ambasadelor, instituţiilor guvernamentale şi şcolilor.

Experţii spun că aceste cazuri subliniază necesitatea unor reguli mai stricte şi a unor filtre de siguranţă mai eficiente pentru sistemele AI, pe măsură ce tehnologia devine tot mai accesibilă publicului.

Urmărește Business Magazin

Am mai scris despre:
chatbot,
informaţii,
GALA Women in Power 2026
COVER STORY. Priorităţi de bancher

Preluarea fără cost a materialelor de presă (text, foto si/sau video), purtătoare de drepturi de proprietate intelectuală, este aprobată de către www.bmag.ro doar în limita a 250 de semne. Spaţiile şi URL-ul/hyperlink-ul nu sunt luate în considerare în numerotarea semnelor. Preluarea de informaţii poate fi făcută numai în acord cu termenii agreaţi şi menţionaţi in această pagină.