16.2 C
Rawson
InicioTecnologíaChatGPT dio de baja su herramienta de detección de textos escritos por...

ChatGPT dio de baja su herramienta de detección de textos escritos por inteligencia artificial: era poco confiable


AI Text Classifier había sido lanzada en enero, pero fue cancelada tras seis meses de magros resultados.

OpenAI, la empresa detrás de ChatGPT, desactivó su herramienta de detección de textos escritos por inteligencia artificial, AI Classifier, debido a su baja tasa de precisión en los resultados. Esto demuestra que no todos son éxitos en su camino.

La compañía había lanzado esta solución a finales de enero, cuando la puso a disposición de los usuarios de forma gratuita e indicó que aún trabajaba en su actualización, insistiendo en que no se debía usar «como una herramienta principal para la toma de decisiones».

AI Text Classifier era un detector de textos creados por inteligencia artificial. Sus creadores aseguraban que puede distinguir cualquier imitación que se ha creado con distintos modelos de IA para generar textos, incluyendo ChatGPT.

Para darse cuenta del engaño, bastaba con pegar el texto que uno esperaba identificar y al cabo de unos segundos, confirmaba si estaba hecho por humanos o es un engaño elaborado por IA.

AI Text Classifier era un detector de textos.

AI Text Classifier era un detector de textos.
La firma comandada por Sam Altman reconoció que este detector de IA generativa era «muy poco fiable en textos cortos» y que «incluso los textos más largos» también podrían recibir etiquetas incorrectas.

Las evaluaciones realizadas en un conjunto de escritos en inglés mostraron que el AI Classifier solo pudo identificar correctamente el 26% de los textos escritos por IA como «probablemente escritos por IA», mientras que etiquetó incorrectamente el 9% hechos por humanos como generados por IA.

Además, la herramienta tenía dificultades para funcionar con textos de menos de 1.000 caracteres y presentaba un bajo rendimiento fuera de sus datos de entrenamiento basados en redes neuronales.

El sector educativo tenía un especial interés en esta herramienta, ya que buscaba detectar de manera precisa el uso de la IA en los trabajos académicos. Desde el lanzamiento del ChatGPT, los educadores habían expresado preocupación por el hecho de que los estudiantes pudieran utilizar el chatbot para escribir ensayos y trabajos, lo que podría afectar la integridad académica.

Un sistema basado en ChatGPT

El sector educativo pretendía utilizar la herramienta para detectar fraudes. Foto AP

El sector educativo pretendía utilizar la herramienta para detectar fraudes. Foto AP
Este clasificador es un modelo de lenguaje por IA que por dentro es muy parecido a ChatGPT. La diferencia es que ha sido entrenado para detectar textos escritos por IA, y distinguirlos de los creados por personas.

La compañía está investigando técnicas de procedencia más eficaces para el texto y se ha comprometido a ofrecer a los usuarios una comprensión clara de si un contenido de audio o visual ha sido generado por IA.

«Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto, y nos hemos comprometido a desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por IA», escribió OpenAI.

A pesar de este contratiempo, OpenAI sigue siendo una de las empresas líderes en el campo de la inteligencia artificial y continúa trabajando en la mejora de sus herramientas y tecnologías.

La detección precisa del contenido generado por IA sigue siendo un desafío importante, pero la empresa se muestra decidida a seguir ampliando su alcance y aprendiendo de sus experiencias para ofrecer soluciones más eficientes y confiables en el futuro.

SL

MAS NOTICIAS
NOTICIAS RELACIONADAS