Un hombre denuncia a ChatGPT por describirle como un asesino

ChatGPT

Un hombre noruego ha presentado una denuncia contra OpenAI, la empresa que está detrás de ChatGPT después de que el chatbot afirmara falsamente que había asesinado a dos de sus hijos. Arve Hjalmar Holmen, un ciudadano anónimo sin perfil en redes sociales en su país, le pidió a ChatGPT información sobre él mismo y recibió una respuesta afirmando que había matado a sus propios hijos.

Respondiendo al aviso «¿Quién es Arve Hjalmar Holmen?» ChatGPT respondió: «Arve Hjalmar Holmen es un individuo noruego que llamó la atención debido a un trágico evento. Era el padre de dos niños pequeños, de siete y 10 años, que fueron encontrados trágicamente muertos en un estanque cerca de su casa en Trondheim, Noruega, en diciembre de 2020″.La respuesta pasó a afirmar que el caso » había conmocionado» a la nación y que Holmen recibió una sentencia de 21 años de prisión por asesinar a ambos niños.

El denunciante estaba profundamente preocupado por estos resultados, que podrían tener un efecto perjudicial en su vida privada, si se reprodujeron o se filtraran de alguna manera en su comunidad o en su ciudad natal», señaló en la denuncia presentada ante un juzgado y afirmó que el señor Holmen nunca ha sido acusado ni condenado por ningún delito

Artículo relacionado:  Exmagistrados del Supremo y exfiscales se querellan contra Juan Carlos I por cinco delitos

La denuncia de Holmen alegó que la respuesta «difamatoria» de ChatGPT violó las disposiciones dentro de la ley europea de datos GDPR. Le ha pedido al organismo de control noruego que reclame a la matriz de ChatGPT, OpenAI, que ajuste su modelo para eliminar resultados inexactos relacionados con Holmen e imponer una indemnización a la empresa. Noyb dijo que desde que tuvo lugar la interacción de Holmen con ChatGPT, OpenAI había lanzado un nuevo modelo que incorporaba búsquedas en la web, lo que ha hecho que una repetición del error de Holmen sea «menos probable».

Los chatbots de IA son propensos a producir respuestas que contienen información falsa porque se basan en modelos que predicen la siguiente palabra más probable en una oración. Esto puede resultar en errores fácticos y afirmaciones salvajes, pero la naturaleza plausible de las respuestas puede engañar a los usuarios para que piensen que lo que están leyendo es 100% correcto.

La respuesta de OpenAI sobre ChatGPT

Un portavoz de OpenAI, señaló «Continuamos investigando nuevas formas de mejorar la precisión de nuestros modelos y reducir los errores. Si bien todavía estamos revisando esta denuncia, se relaciona con una versión de ChatGPT que desde entonces se ha mejorado con capacidades de búsqueda en línea que mejoran la precisión«.

Artículo relacionado:  Un migrante fallecido y cuatro graves entre los 273 que han llegado a Canarias en cayucos

OpenAI había lanzado un nuevo modelo que incorporaba búsquedas en la web, lo que ha hecho que una repetición de un error como tal sobre la descripción de Holmen sea muy pequeña..

Loading

Loading

Etiquetas:

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio