Madre cree que un CHATBOT de IA es responsable del suicidio de su hijo
“Hay una plataforma de la que quizás no hayas oído hablar, pero necesitas conocerla porque, en mi opinión, estamos en desventaja aquí. Un niño murió. Mi hijo murió”. Eso es lo que Megan García, una madre de Florida, desearía poder decirles a otros padres sobre #Character.AI, una plataforma que permite a los usuarios tener conversaciones profundas con chatbots de inteligencia artificial (IA).
García cree que Character.AI es responsable de la muerte de su hijo, de 14 años, Sewell Setzer III, quien se suicidó en febrero, según una demanda que presentó contra la empresa la semana pasada. Setzer envió mensajes al bot momentos antes de morir, alega.
García señala que Character.AI, que comercializa su tecnología como “#IA que se siente viva”, falló conscientemente en implementar medidas de seguridad adecuadas para evitar que su hijo desarrollara una relación inapropiada con un chatbot que lo llevó a alejarse de su familia. La demanda también afirma que la plataforma no respondió adecuadamente cuando Setzer comenzó a expresar pensamientos de autolesión al bot, según la demanda presentada en un tribunal federal en #Florida.
Un portavoz de Character.AI dijo a CNN que la empresa no comenta sobre litigios pendientes, pero que está “desconsolada por la trágica pérdida de uno de nuestros usuarios”.
Esta historia contiene discusiones sobre el suicidio. Hay ayuda disponible si tú o alguien que conoces está luchando con pensamientos suicidas o problemas de salud mental.
En EE.UU.: llama o envía un mensaje de texto al 988, la Línea de Prevención del Suicidio y Crisis. A nivel mundial: la Asociación Internacional para la Prevención del Suicidio y Befrienders Worldwide tienen información de contacto para centros de crisis en todo el mundo.