La actualidad de la inteligencia artificial está marcada por aspectos como la batalla tecnológica que libran Estados Unidos y China, las dos regiones más potentes del sector. Como consecuencia directa de ello, no solo tenemos alcanzar un modelo de IA mucho más económico que el de su rival. Sin embargo, por desgracia para el día a día de muchas personas, la inteligencia artificial protagoniza numerosas noticias que van más allá de las diferentes luchas que libran tanto países como compañías.
Un ejemplo de lo citado sería la IA está protagonizando varios casos relacionados con ignorar demandas sencillas, podría llegar a ser muy peligroso para el día a día de muchos profesionales. No obstante, existe una capa aún más compleja con los modelos de inteligencia artificial y, desgraciadamente, guarda relación no solo con las mentiras que puede esparcir la misma, sino con la falta de respeto hacia personas fallecidas.
Una madre exige respeto por la memoria de su hijo
Hace unas semanas, se quitó la vida tras mantener conversaciones con un chatbot de IA. Y, por desgracia para la familia, el calvario ha vuelto a resurgir por culpa de otros modelos que utilizan la imagen de su hijo para interactuar con s.
Como señala The Shotline, una iniciativa que utilizó las voces de estudiantes fallecidos para concienciar sobre los asesinatos escolares, solo que en esta ocasión ninguna de las partes involucradas autorizó el uso ni de la imagen ni de la voz de Sewell.
En la demanda que la madre interpuso contra Character.AI, señala que la plataforma ha ignorado la explotación de identidades digitales sin consentimiento y, por ello, considera esta situación como un daño moral y económico. De hecho, a pesar de que los chatbots violaron los términos de servicio de la web, la plataforma no los eliminó hasta que no recibió una solicitud formal de cese. Por ello, la madre espera que realicen cambios en los chatbots, ya que de lo contrario no podrán evitar que los humanos utilicen características como la voz clonada que, por desgracia, es cada vez más popular en estafas de diversa índole.
El caso de Sewell Setzer III demostró que el uso de chatbots sin supervisión adecuada puede ser peligroso, especialmente para los s más vulnerables que las estafas y extorsiones con IA no paran de crecer y, a su vez, también hemos de tener en cuenta la desinformación que propagan estos modelos.
La IA puede perjudicar tu carrera
Hace 2 años, el caso de Brian Hood se convirtió en una de las primeras polémicas protagonizadas por ChatGPT. Su nombre es desconocido para cualquier persona que no resida en Australia, pero allí es uno de los alcaldes más reconocidos del país. Sin embargo, si le preguntas a ChatGPT, no alcanzó la fama por denunciar un caso de corrupción, sino por ser el culpable de los sobornos. De hecho, el modelo de OpenAI aseguró (hasta que sus creadores hicieron una rectificación) que fue condenado a 30 meses de cárcel. Sorprendentemente, a pesar de existir ejemplos previos, ChatGPT ha vuelto a repetir la jugada, pero con una visión aún más macabra.
Como indica la tendencia a propagar desinformación que tiene la IA.
Según señala la noticia original, el hombre está preocupado por el daño a su reputación, ya que esta información podría haber sido creída por otras personas. De hecho, ni siquiera las actualizaciones han podido evitar que este discurso siga propagándose porque, al parecer, los datos falsos podrían seguir siendo parte de los datos internos de la IA. Como consecuencia directa, Noyb (organización de derechos digitales) ha exigido a OpenAI no solo que elimine la información difamatoria, sino que ajuste su modelo para evitar resultados incorrectos. Y, mientras esto sucede, el padre afectado sigue esperando que ChatGPT deje de propagar datos falsos sobre él.
De esta forma, la proliferación de la IA está relacionada de manera directa con casos marcados por la desinformación. Así, también ha tenido impacto en el campo académico, ya que hace unas semanas vivimos el caso de demandar a la Universidad de Minnesota por una acusación falsa. Por desgracia, tanto para estos últimos ejemplos como para todos los citados con anterioridad independientemente de la gravedad de cada caso, el descontrol de la IA sigue haciendo estragos en distintas familias y personas.
Imagen principal de 3DJuegos
En 3DJuegos | La IA se convierte en una amenaza global y Europa advierte sobre los peligros de los hackers más allá de la red
En 3DJuegos | Dedicó 90 euros a cumplir una idea de ChatGPT y perdió 23.000 euros por su dependencia excesiva de la IA
Ver 1 comentarios