OpenAI aclara que la actualización de políticas de ChatGPT no implica restricciones adicionales para asesoramiento legal y médico
Una reciente confusión generó titulares alarmantes, pero OpenAI aclara que no hubo cambios sustanciales en las políticas de ChatGPT.
Durante la semana pasada, la información circuló rápidamente en diversos medios con titulares que señalaban que ChatGPT había dejado de ofrecer asesoramiento legal y médico, generando preocupación y alarma sobre un cambio radical en las políticas de OpenAI. Sin embargo, la realidad es distinta. La supuesta modificación en las políticas fue en realidad una reorganización y consolidación de normas existentes, sin cambios sustanciales en las restricciones previas.
Este malentendido se originó cuando OpenAI actualizó su lista de políticas, que solo consolidó normativas ya vigentes relacionadas con el uso responsable de la inteligencia artificial. La política siempre había prohibido el uso de ChatGPT para ofrecer consejos específicos que requieran licencia, como en los ámbitos legal y médico, sin la supervisión de profesionales certificados. La diferencia radica en que la actualización no introdujo nuevas restricciones, sino que las reordenó para lograr mayor claridad y aplicabilidad uniforme en todos los productos de la compañía.
El problema reside en la forma en que estas noticias se difundieron sin una verificación adecuada, propagando errores y creando una percepción errónea en la ciudadanía sobre los límites y capacidades del sistema. La rapidez con que se difunden noticias falsas, muchas veces sin fundamento, contribuye a una desinformación masiva que puede afectar la percepción pública acerca de la inteligencia artificial y las políticas de empresas como OpenAI.
Asimismo, se han creado historias sensacionalistas en torno a declaraciones de figuras como Sam Altman, quien siempre ha promovido la prudencia y el escepticismo frente al uso de la IA. Muchas noticias han interpretado mal sus palabras, presentándolas como advertencias sobre peligros inminentes, cuando en realidad reflejan una postura consistente de cautela y recomendación de uso responsable.
En definitiva, este caso evidencia la necesidad de que tanto medios como lectores sean más críticos y verifiquen la información antes de compartirla. La propagación de noticias infundadas no solo genera confusión, sino que también alimenta un escenario de desconfianza y alarma injustificada. La responsabilidad recae en todos: los medios deben ejercer un periodismo más riguroso y la ciudadanía ser más escéptica para evitar que la desinformación se propague y afecte la comprensión pública sobre las verdaderas capacidades y limitaciones de la inteligencia artificial.