OpenAI actualiza las políticas de uso de ChatGPT para evitar recomendaciones médicas y legales sin supervisión profesional
OpenAI refuerza las restricciones sobre el uso de ChatGPT en áreas sensibles para promover un uso responsable y prevenir errores peligrosos.
OpenAI ha aclarado las normas sobre el uso de ChatGPT, estableciendo que los usuarios no deben emplear el servicio para asesoramiento médico o legal individual que requiera licencia, especialmente si no están supervisados por un profesional cualificado. Estas actualizaciones en las políticas de uso se implementaron a finales del mes pasado para aclarar que ChatGPT no reemplaza la asesoría profesional ni debe considerarse una fuente definitiva para decisiones importantes.
Desde enero, OpenAI ya prohibía usar ChatGPT en temas que puedan afectar la seguridad, el bienestar o los derechos de otras personas, incluyendo áreas como salud, derecho y finanzas. La compañía ha enfatizado que estas restricciones no son nuevas, pero ahora se especifica que el chatbot no puede sustituir la consulta con expertos.
Este esfuerzo de aclaración responde también a estudios recientes que evalúan la calidad de las respuestas del modelo en contextos médicos. Una investigación de la University of Waterloo reveló que solo cerca de un tercio de las respuestas en pruebas médicas eran completamente correctas, mientras que otro tercio era comprensible pero contenía errores o resultados confusos.
Además, un estudio de la University of British Columbia examinó cómo la forma en que ChatGPT presenta sus respuestas influye en la percepción de la ciudadanía. Los resultados indicaron que su estilo de lenguaje confiado y afirmativo puede hacer que las informaciones médicas se perciban como más creíbles, lo que podría llevar a que las personas se formen ideas erróneas o se convenzan de información incorrecta antes de consultar a un médico.