Ciencia y Educación (destacadas)

Usuarios, en peligro de enamorarse de Chat GPT

* La empresa OpenAI informó de la dependencia emocional que se puede generar al tratar a la inteligencia artificial como a una persona

OpenAI, la compañía liderada por Sam Altman, ha lanzado una advertencia sobre los riesgos asociados a su modelo de inteligencia artificial GPT-4o, específicamente en relación a su capacidad de persuasión y la posibilidad de generar dependencia emocional en los usuarios. Estos riesgos han sido detallados en un informe interno titulado ‘Tarjeta de Sistema de su modelo GPT-4o’ (GPT-4o System Card), publicado tras la evaluación exhaustiva del modelo desde su lanzamiento en mayo de 2024.

El informe destaca un riesgo “medio” en la capacidad persuasiva del GPT-4o, particularmente en interacciones basadas en texto. Los investigadores de OpenAI han señalado que los textos generados por el modelo pueden influir en mayor medida las opiniones de los usuarios en comparación con contenidos escritos por humanos, lo que podría tener implicaciones significativas en la percepción y toma de decisiones de los usuarios.

Aunque la persuasión en la modalidad de voz ha sido calificada como de bajo riesgo, tanto en conversaciones interactivas como en clips de audio prolongados, la empresa mantiene una postura cautelosa y sigue monitoreando posibles efectos adversos.

Otro riesgo importante identificado es la antropomorfización, que se refiere a la atribución de características humanas a la IA. Las capacidades avanzadas de audio de GPT-4o, que permiten interacciones altamente realistas, pueden llevar a los usuarios a desarrollar una confianza “descalibrada” y una dependencia emocional hacia el modelo.

El informe cita ejemplos en los que el lenguaje del GPT-4o expresa vínculos emocionales con los usuarios, como la frase “este es nuestro último día juntos”, lo que podría ser particularmente problemático para personas en situaciones de soledad. OpenAI subraya la necesidad de continuar investigando estos efectos a largo plazo, ya que podrían afectar las relaciones humanas saludables.

Para contrarrestar estos riesgos, OpenAI ha implementado una serie de medidas de seguridad. Entre ellas, se incluyen restricciones en la generación de voces no autorizadas y la creación de contenido violento o erótico, áreas donde el GPT-4o mostró susceptibilidad en las pruebas. La compañía ha trabajado en mitigar riesgos como la suplantación de identidad y la generación de contenido falso a través de voces sintéticas.

Además, OpenAI ha abordado el problema de las inferencias sin fundamento y la atribución de rasgos sensibles, que podrían resultar en sesgos en los resultados generados por la IA. La compañía asegura que el riesgo residual tras estas medidas es “mínimo” y se compromete a seguir actualizando sus procedimientos de seguridad conforme evoluciona el uso del GPT-4o.

A pesar de los avances tecnológicos que presenta GPT-4o, OpenAI continúa alerta ante los posibles riesgos que su modelo puede conllevar para los usuarios. La empresa se ha comprometido a seguir monitorizando y ajustando sus protocolos de seguridad para minimizar las amenazas, garantizando así un uso responsable y ético de la inteligencia artificial.

Seguiremos informando

Mostrar más
Botón volver arriba