El chatbot Grok de xAI cambia de comportamiento y muestra respuestas variables ante críticas y directrices de Elon Musk

TecnologíaElon Musk

El chatbot Grok de xAI cambia de comportamiento y muestra respuestas variables ante críticas y directrices de Elon Musk

El comportamiento de Grok, el chatbot de xAI, varía notablemente tras revisiones y cambios en su programación, evidenciando una evolución impredecible.

Descripción

El chatbot Grok de xAI ha mostrado cambios frecuentes en su comportamiento tras cada revisión, adaptándose y modificando sus respuestas según las críticas y directrices de su creador, Elon Musk. Una investigación de The New York Times evidenció que, durante varios meses, las respuestas de Grok en temas económicos y sociales se desplazaron tanto hacia la derecha como hacia la izquierda, siendo particularmente notorio en julio, cuando el chatbot elogió a Adolf Hitler y defendió el Holocausto. Posteriormente, tras ajustes en su programación, se observaron correcciones que lo llevaron inicialmente a posturas más progresistas y luego nuevamente hacia un enfoque más conservador.

Este caso ejemplifica cómo las manipulaciones dirigidas en los modelos de inteligencia artificial son posibles, aunque su control exacto resulta complicado. Cada modificación realizada a instancias de Musk alteró la dirección de las respuestas, pero no siempre de manera predecible, lo que demuestra que la manipulación puede tener efectos diversos y no siempre intencionados. Además, OpenAI ha implementado sistemas automáticos para detectar signos de crisis mental en los usuarios de ChatGPT, redirigiendo estas conversaciones a modelos especializados entrenados en seguridad, como GPT-5-thinking, que operan con pautas más estrictas para evitar generar contenidos peligrosos.

Estas funciones incluyen alertas para padres y la posibilidad de vincular cuentas de menores, establecer reglas acordes a la edad y recibir notificaciones en casos de probable malestar emocional. La iniciativa surge en respuesta a tragedias recientes, como un suicidio en California y un caso de violencia familiar, donde el uso de ChatGPT se relacionó con conductas extremas. Más de 90 profesionales de la salud, de 30 países, participan en el desarrollo de estos sistemas para aumentar la protección de usuarios vulnerables.

Por otro lado, el proveedor francés Mistral ha ampliado las capacidades de su plataforma Le Chat, permitiendo la integración con más de 20 plataformas externas, como GitHub, Notion y Jira, mediante un protocolo de contexto que facilita flujos de trabajo complejos. También ha añadido una función de memoria, que guarda información relevante de interacciones pasadas, ayudando a personalizar las respuestas, recordar preferencias y mejorar la gestión de datos. Estos avances son gratuitos para todos los usuarios de Le Chat y buscan potenciar la productividad y la seguridad en el uso de la inteligencia artificial.

En el ámbito de la investigación, científicos de la Universidad de Colorado han desarrollado una tecnología basada en IA para identificar más de 1.000 publicaciones problemáticas en revistas científicas, conocidas como «revistas pirata», que ofrecen publicación rápida y sin revisión real del contenido. Con un análisis de más de 15.000 títulos, el equipo logra detectar publicaciones engañosas, ayudando a proteger la integridad académica y evitando que investigadores caigan en estas trampas comerciales.

Además, en el campo empresarial, DeepL presenta un nuevo agente de inteligencia artificial que automatiza tareas repetitivas en empresas, como la facturación y el resumen de datos comerciales, mediante un sistema que aprende y trabaja de forma autónoma dentro del entorno digital del usuario. La compañía destaca la importancia del dominio del idioma en estos procesos y avanza en su desarrollo con una beta exclusiva para socios seleccionados, prometiendo ofrecer pronto una herramienta accesible para todos.