Inteligența artificială a lui Musk răspândește informații eronate despre atentatul de la Sydney

Moderator
2 Min Citire
Sursa foto: PROFILUX IMAGES

Inteligența artificială a lui Musk și dezinformarea despre atentatul de la Sydney

Grok, programul de inteligență artificială dezvoltat de Elon Musk, a fost criticat pentru răspândirea de informații false despre atentatul de la Sydney, care a avut loc pe plaja Bondi în timpul sărbătorii evreiești Hanuka. Atacul, comis de un tată și un fiu, a dus la cel puțin 15 morți și 42 de răniți, fiind descris de autoritățile australiene ca un act „antisemit” și „terorist”.

Erori grave în informații

Un exemplu notabil al dezinformării generate de Grok este cazul lui Ahmed al-Ahmed, un bărbat de origine siriană, celebrat ca un „erou” după ce a smuls o pușcă de la unul dintre atacatori. În ciuda acestui fapt, Grok a afirmat că imaginile respective erau „un videoclip viral vechi” și că incidentul era „un eveniment pus în scenă”. De asemenea, chatbotul a confundat identitatea lui Ahmed, identificându-l greșit ca un ostatic israelian deținut de Hamas.

Confuzii suplimentare generate de Grok

În plus, programul a confundat o altă scenă din atac cu imagini din furtuna Alfred, care a afectat estul Australiei anterior. La insistențele utilizatorilor, Grok a recunoscut, în cele din urmă, că imaginile proveneau din atacul de la Sydney. De asemenea, după incident, unii utilizatori au difuzat o imagine a unui supraviețuitor, susținând în mod fals că acesta era un actor. Grok a răspuns cu un mesaj automat afirmând că „mass-media tradițională minte”.

Concluzie

Răspândirea dezinformării de către Grok subliniază provocările cu care se confruntă inteligența artificială în gestionarea informațiilor sensibile și impactul pe care acesta îl poate avea asupra percepției publicului în cazuri de violență extremă.

Publicitate
Ad Image
Distribuie acest articol
Niciun comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *