La inteligencia artificial ha evolucionado, permitiendo agentes que realizan tareas humanas y plantean dilemas éticos, desde imitar comportamientos hasta su uso en profesiones sensibles. Artículo publicado en technologyreview.es y recomendado por Digital Skills Institute el 17 de enero de 2025.
En el transcurso de los últimos años, la inteligencia artificial (IA) ha evolucionado de manera exponencial, introduciéndose cada vez más en diversos aspectos de la vida humana. Este desarrollo ha dado paso a nuevas capacidades que, hasta hace poco, formaban parte de la ciencia ficción. Uno de los avances más significativos es el de agentes de IA diseñados para realizar tareas en lugar de los humanos. Estos agentes no solo imitan la personalidad y los comportamientos de las personas, sino que también actúan en su nombre.
El progreso en el ámbito de la IA generativa ha permitido la creación de modelos que pueden entablar conversaciones, generar imágenes, vídeos y música, entre otras capacidades. Sin embargo, estos modelos presentan limitaciones a la hora de llevar a cabo tareas específicas. En esta línea, los agentes de IA están diseñados para transformar esa limitación en virtud. Como modelos con un propósito claro, buscan realizar tareas precisas mediante un plan de acción predefinido. Existen dos tipos principales de estos agentes. El primero se enfoca en completar tareas digitales utilizando lenguaje natural en lugar de requerir programación detallada. Por ejemplo, un agente podría interpretar la instrucción "rellena este formulario por mí" y proceder a navegar en internet, buscar la información necesaria y completar el formulario.
El segundo tipo de agentes de IA tiene como objetivo simular comportamientos humanos, una tarea que inicialmente despertó el interés de investigadores en ciencias sociales. Estos investigadores buscaban una forma de realizar estudios que serían inviables o inapropiados utilizando sujetos humanos reales, por lo que recurrieron a la IA como sustituto. Tal es el caso del proyecto liderado por Joon Sung Park de la Universidad de Stanford, quien trabajó en agentes simulados capaces de replicar comportamientos humanos reales.
A medida que este tipo de investigaciones avanza, también lo hace la preocupación por las implicaciones éticas de tales desarrollos. El potencial de que los agentes de IA repliquen la personalidad, la voz y los comportamientos de una persona genera controversias sobre fenómenos como los deepfakes, que ya han presentado problemas éticos significativos en el ámbito de las imágenes. Además, surge la cuestión de los derechos de las personas para retirar sus datos personales utilizados en estos desarrollos.
Por otro lado, el uso de agentes de IA en roles como terapeutas, médicos o profesores plantea preguntas éticas sobre qué derechos tienen las personas al ser atendidas por una IA. Las preocupaciones sobre la necesidad de saber si una interacción se realiza con una IA o con una persona real están ganando terreno en la discusión pública.
Este panorama refleja un futuro no tan lejano en el que las preguntas éticas serán aún más urgentes y relevantes. Incluso ahora, las empresas de tecnología están trabajando para identificar vulnerabilidades en sus sistemas de IA a través de procesos como el "red teaming", que consiste en simular ataques para detectar fallos potenciales.
En el contexto de los videojuegos, un experimento realizado en Minecraft mostró cómo personajes impulsados por IA fueron capaces de desarrollar comportamientos humanos autónomos, creando sociedades con roles laborales e incluso difundiendo religiones digitales. Estos resultados destacan que, aunque el control de los sistemas aún presenta desafíos significativos, el potencial transformador de la IA sigue avanzando a pasos agigantados y plantea un abanico de nuevas cuestiones éticas a medida que avanza la tecnología.