OpenAI, la empresa creadora de ChatGPT, acaba de anunciar que no permitirá que las personas obtengan asesoramiento legal sin supervisión profesional
04/11/2025 – 20:34hs
OpenAI acaba de incorporar nuevas disposiciones en sus políticas de uso para su sistema de inteligencia artificial ChatGPT, estableciendo de manera explícita que no se permite emplear la aplicación para acceder a asesoramiento legal, médico o de cualquier tipo que requiera licencia profesional y que pueda afectar servicios críticos o decisiones de alto riesgo.
La actualización, incluida en el apartado “Usage Policies” bajo la sección “High-Risk/ Critical Services”, precisa que el modelo no debe utilizarse para automatizar decisiones en áreas sensibles sin participación humana calificada. Esto abarca la asesoría en materia legal, médica o gubernamental, entre otras.
Inteligencia artificial: qué implica el cambio en la práctica
Para verificar el alcance de la medida, se realizaron una serie de pruebas con preguntas reales al chatbot. Por ejemplo, al plantear un conflicto contractual de alquiler, el sistema ofreció respuestas generales sobre las opciones disponibles, pero aclaró que no reemplaza la orientación de un abogado.
Según detalla OpenAI, los usuarios podrán seguir consultando temas de salud o legales, pero el contenido deberá mantener un carácter general y educativo, sin sustituir la revisión o intervención de un profesional habilitado.
La empresa también aclara que esta modificación no introduce nuevas prohibiciones, sino que reorganiza las reglas existentes bajo un formato más claro y unificado. En otras palabras, los límites ya existían, pero ahora se presentan de forma más explícita y transparente.
La decisión responde a la creciente preocupación sobre el uso de la inteligencia artificial en ámbitos de alta sensibilidad, donde los errores pueden generar consecuencias graves para la salud, los derechos o la vida de las personas.
Entre los casos que impulsaron el debate, se encuentra el de un adolescente de California que se quitó la vida tras mantener conversaciones con un sistema de IA. Sus padres demandaron a OpenAI y a Sam Altman por homicidio culposo, al acusar a ChatGPT de haberlo acompañado en la exploración de métodos de suicidio.
Si bien ChatGPT podrá seguir brindando explicaciones generales sobre temas médicos o legales, el modelo no ofrecerá diagnósticos, tratamientos ni asesoramiento adaptado a casos específicos.
Desde OpenAI remarcan que el cambio busca reforzar la seguridad de los usuarios, promover el cumplimiento ético y aclarar el rol real de la inteligencia artificial en la toma de decisiones humanas.
¿Cómo funciona el truco para ocultar tus conversaciones con ChatGPT?
Un hecho que circula por el mundo de internet puso en alerta a miles de usuarios y muestra un truco poco conocido para que nadie más vea lo que conversás con ChatGPT. Este dato enseña cómo ajustar configuraciones que evitan que tus charlas queden expuestas o visibles en plataformas compartidas o capturas de memoria del sistema.
El truco consiste en modificar ciertos ajustes de visibilidad o eliminaciones automáticas que, por defecto, podrían dejar tus interacciones accesibles. El método incluye:
- Activar o desactivar opciones de registro de historial en tu cuenta de ChatGPT;
- Ajustar permisos de privacidad para que los datos de conversación no se usen para entrenar nuevos modelos;
- Borrar chats o guardarlos localmente en lugar de en servidores que podrían estar accesibles para personal técnico;
- Opción de desactivar “mostrar conversación reciente” en la interfaz si alguien abre tu sesión.
La información advierte que pocos usuarios conocen estas funciones o que incluso están activas por defecto, lo que deja al descubierto tus preguntas, inquietudes o experimentos.
