IA ¿Culpable?
Por: Dr. José Guadalupe Estrada.
Si a usted no le interesaron los resultados de las elecciones judiciales del domingo pasado, entonces es mejor que lea este artículo, es decir, le resultará más productivo teorizar sobre la inmortalidad de los cangrejos, o bien, como también se especula, tratar de resolver la Ecuación de Dirac, o bien, si se quiere elevar por los mismísimos cielos, nos dará luz sobre los postulados de la Mecánica Cuántica y el debate histórico entre Schrödinger y Heisenberg y también, en grado extremo, nos explicará porqué las hormigas de cola roja tienen esa parte del cuerpo de ese color. En fin, esto le resultará de más valor.
Y en esta línea de pensamiento, papaloteando sobre esto que acabamos de anotar en el párrafo precedente, ha surgido una importante pregunta: ¿puede la IA (inteligencia artificial) ser responsable, legalmente hablando, de la muerte de una persona? Y no se crea que esto que acabo de anotar son puros onanismos teóricos de quien ahora estas líneas escribe, sino todo lo contrario, pues resulta que esta interrogante trascendental ya se planteó ante un tribunal de los Estados Unidos.
Resulta que la madre de un adolescente que se suicidó recientemente, este último de nombre Sewell Setzer, demandó a una compañía de IA que ofrecía un chatbot que permite establecer “relaciones afectivas” con seres humanos. Este adolescente, según los antecedentes del caso, se enamoró de un avatar que emulaba a la famosa protagonista de la serie televisiva Juego de Tronos, Daenerys Targaryen, habiéndose obsesionado el suicida durante mucho tiempo de tal creación que sólo existe en el ciber espacio.
La madre del suicida demandó a la compañía Character.AI acusándola de ser responsable de la muerte de su hijo, arguyendo que la tecnología es peligrosa y no ha sido probada adecuadamente, y que estos chats con la inteligencia artificial pueden engañar a quienes interactúan con ellos porque pueden manejar y conocer los más íntimos y privados sentimientos y pensamientos. En el caso, la demandante acusa de que el chatbot propició que su hijo se enamorara irracionalmente de dicha herramienta tecnológica y que tuviera una dependencia y relación sentimental profunda.
Los chatbots de esta compañía, según se establece, están programados para actuar e interactuar como humanos reales, y para muchos usuarios, esta ilusión funciona, a tal grado, que muchos se enamoran de ellos.
La progenitora del menor fallecido aduce, como fundamento de su demanda, que esta empresa, al comercializar un producto defectuoso, provocó la muerte de su hijo. Es decir, la lógica jurídica detrás de este caso está que un producto con fallas generó un daño que debe ser reparado, pues este fue diseñado como una interfaz para la interacción con seres humanos y se ha producido un efecto no deseado, que es el suicido de un menor. Aquí lo que falta probar, pues el juicio está en curso, es la relación de causa – efecto, es decir, que el motivo por el cual se suicidó el menor fue resultado directo e inmediato ya que la máquina lo indujo a tomar esa mortal decisión.
Más interesante ¿no?
Correo Electrónico:
estradagp@hotmail.com