OpenAI anuncia incorporación de publicidad en ChatGPT gratuito y en la suscripción ChatGPT Go para mejorar sus ingresos
OpenAI introduce anuncios en ChatGPT, generando debate sobre privacidad y la evolución del modelo de negocio. Descubre los detalles y implicaciones.
OpenAI anuncia publicidad en la versión gratuita de ChatGPT y en la nueva suscripción “ChatGPT Go”. Las primeras pruebas se están realizando en Estados Unidos. La empresa necesita ingresos adicionales con urgencia, ya que la investigación, desarrollo y operación de los modelos de IA requieren grandes inversiones.
Hasta otoño de 2025, el CEO Sam Altman había declarado que odiaba la publicidad. También señaló el problema: los usuarios podrían recibir respuestas influenciadas por quienes pagan, en lugar de la mejor respuesta. OpenAI promete que la publicidad nunca influirá en las respuestas y siempre estará claramente señalizada. Los anuncios aparecerán debajo de las respuestas y podrán estar relacionados con la consulta. OpenAI no venderá el contenido de las conversaciones a los anunciantes, pero sí utilizará datos personalizados para seleccionar la publicidad. La empresa no revela qué datos exactos se emplean.
Elon Musk amplía su batalla legal con OpenAI. Sus abogados han elevado las reclamaciones hasta 109.400 millones de dólares. Un experto justifica esta cifra porque Musk aportó 38 millones de dólares, así como contactos y conocimientos en los inicios, lo que justificaría una gran parte del valor actual de la empresa.
Musk dejó OpenAI en 2018 y presentó una demanda en 2024. Acusa a OpenAI de abandonar su condición de organización sin ánimo de lucro y de trabajar principalmente para Microsoft. Además, afirma haber sido privado injustamente de sus inversiones. OpenAI rechaza las acusaciones. En marzo de 2025, un tribunal desestimó la solicitud urgente de Musk para detener la reestructuración, pero permitió continuar con el juicio principal. El proceso comenzará en abril.
Una investigación de Anthropic, creadora del chatbot Claude, cuestiona una creencia habitual: que la IA debe liberar a las personas de tareas rutinarias para que puedan centrarse en asuntos importantes. La realidad es otra: los usuarios delegan principalmente tareas complejas a la IA, donde la tasa de éxito es del 66%, inferior al 70% en tareas sencillas.
La empresa analizó dos millones de datos de uso anonimizados. Los investigadores denominan este fenómeno “de-skilling”: las profesiones pierden sus partes más exigentes. Por ejemplo, un redactor técnico deja que la IA analice desarrollos mientras él dibuja esquemas. En una agencia de viajes, la IA planifica rutas complejas, y el personal se encarga de imprimir billetes. La razón es el tiempo: una tarea que sin IA tarda tres horas, con la IA se completa en 15 minutos. Muchos aceptan el mayor margen de error.
Con su consentimiento, aquí se carga un podcast externo (Podigee GmbH).
Acepto que se muestren contenidos externos. Esto implica que datos personales se transmitan a plataformas de terceros (Podigee GmbH). Más información en nuestra política de privacidad.
Dos días después del lanzamiento del sistema Claude Cowork de Anthropic, expertos en seguridad documentaron una vulnerabilidad crítica. Los atacantes pueden robar archivos confidenciales de usuarios mediante comandos ocultos en documentos aparentemente inocuos. No se requiere confirmación por parte del usuario.
La empresa de seguridad PromptArmor describe el método de ataque: un usuario conecta Cowork a una carpeta local y sube un archivo con una instrucción oculta. El texto malicioso está escondido en un documento Word, con fuente blanca diminuta sobre fondo blanco. Al pedir a Cowork que analice sus archivos, la instrucción oculta toma el control y envía los archivos a un servidor externo. Anthropic destaca que Cowork fue desarrollado en apenas semana y media y que todo el código fue escrito por Claude.
¿Qué tan inteligente es la inteligencia artificial? ¿Qué impacto tiene la IA generativa en nuestro trabajo, ocio y sociedad? En el “KI-Update” de Heise, junto con The Decoder, ofrecemos actualizaciones diarias sobre los principales avances en IA. Los viernes, expertos analizan distintos aspectos de la revolución de la IA.
Matthew Rosenfield, fundador del messenger Signal, ha lanzado Confer, un chatbot de IA que protege las conversaciones de accesos externos. En los chatbots más comunes de OpenAI, Anthropic, Google y Meta, todas las entradas se almacenan en los servidores de los proveedores. No están cifrados de extremo a extremo y los proveedores pueden acceder a ellas.
Confer cifra las consultas localmente en el dispositivo del usuario. El modelo de IA funciona en un servidor dentro de un entorno de ejecución confiable y aislado (Trusted Execution Environment). El código fuente está disponible en GitHub. Aún no se sabe qué modelo de IA usa Confer. En un blog, Marlinspike advierte sobre el uso de grandes chatbots; los proveedores almacenan pensamientos para entrenamiento y lucro. Escribe: «Tú recibes una respuesta; ellos obtienen todo».
El modelo de lenguaje GPT-5.2 Pro de OpenAI ayudó a resolver un problema matemático abierto. El investigador de IA Neel Somani informó que con el modelo resolvió el problema Erdős número 281 de teoría de números. El matemático Terence Tao lo calificó como “quizá el ejemplo más claro” de una IA que resuelve un problema matemático no resuelto.
No obstante, podrían existir pruebas previas que influyeran en la respuesta del modelo. Tao confirma que la solución de GPT-5.2 Pro es “bastante diferente” a los precedentes. A la vez, advierte sobre una percepción distorsionada de las capacidades de la IA: los resultados negativos raramente se publican, mientras que los positivos se viralizan. Los éxitos se concentran en problemas más simples.
Google mejora los resultados de búsqueda con IA mediante el modelo Gemini 3 Pro. El sistema dirige automáticamente consultas complejas a su modelo más potente, mientras que las preguntas sencillas son gestionadas por modelos más rápidos. Esta gestión inteligente ya funciona en el “modo IA”, el chatbot de Google para búsquedas web, y ahora se extiende a los AI Overviews, respuestas rápidas de IA bajo la consulta.
La función está disponible globalmente en inglés, pero solo para suscriptores de pago de Google AI Pro y Ultra. Los resultados con IA son criticados: pueden ofrecer respuestas falsas con gran seguridad. Citar fuentes no elimina errores y los usuarios casi nunca las verifican. Modelos más avanzados pueden reducir errores, pero no eliminarlos del todo.
En Corea del Sur, la IA generativa se consolida como un producto de suscripción habitual. Los pagos mensuales por servicios de IA superan ya el gasto en Netflix. Según una empresa de análisis de datos, en diciembre de 2025 los pagos por siete servicios de IA, como ChatGPT y Gemini, ascendieron a entre 50 y 55 millones de € aproximadamente. No obstante, esta cifra incluye pagos corporativos, mientras que Netflix es un servicio solo para consumidores finales.
La media mensual abonada a Netflix en Corea en 2024 fue de entre 45 y 50 millones de €. ChatGPT domina el mercado con un 71,5% de los pagos.
(mali)