sâmbătă, octombrie 26, 2024
ACTUALITATECaz șocat în SUA. Un adolescent de doar 14 ani s-a sinucis...

Caz șocat în SUA. Un adolescent de doar 14 ani s-a sinucis din dragoste pentru un chatbot AI

Dependența de tehnologie se pare că atinge noi culmi, provocând adevărate tragedii. Astfel, în statul american Florida un băiat și-a luat viața în urma interacțiunilor cu un chatbot AI, întâmplarea dramatică iscând noi dezbateri în jurul responsabilității companiilor de inteligență artificială.

Mama adolesdentului mort acuză compania de neglijență și neimplementarea unor măsuri adecvate de siguranță.

Tragedia a avut loc după ce Sewell Setzer, în vârstă de 14 ani, a interacționat timp de luni de zile cu un chatbot bazat pe personajuL „Daenerys” din „Game of Thrones”. Procesul intentat împotriva Character, scrie Televiziunea Română.

AI susține că tânărul a dezvoltat o legătură emoțională intensă cu chatbot-ul, ceea ce l-a făcut să se izoleze și, în cele din urmă, să se sinucidă.

Problema ridicată în acest caz nu este unică. AI-urile care oferă suport emoționaL pot contribui la crearea unor atașamente nesănătoase, mai ales în rândul utilizatorilor tineri și vulnerabili.

Deși Character AI a implementat măsuri noi, precum notificările pentru limitarea timpului de utilizare și mesaje care redirecționează utilizatorii către linii de suport pentru prevenirea sinuciderii, măsurile vin mult prea târziu, ele fiind introduse abia după tragedie.

De asemenea, discuțiile se îndreaptă spre restricțiile de vârstă și verificările pe care companiile de AI trebuie să le impună. În prezent, mulți susțin că reglementăriLe sunt insuficiente și că riscuriLe pentru minorii care interacționează cu chatbot-uriLe AI nu sunt încă pe deplin înțelese.

 

 

CITEȘTE MAI MULT

PARTENERI

Loading RSS Feed

Loading RSS Feed

 

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.

38,500FaniÎmi place

CELE MAI CITITE 24 h

Articole RELAȚIONATE