miércoles, julio 24, 2024
InicioCiencia y ComputaciónChatGPT retira su herramienta para detectar si un texto está escrito por...

ChatGPT retira su herramienta para detectar si un texto está escrito por IA

Luego de la aparición de distintas herramientas con el uso Inteligencia Artificial surgió uno de los principales recelos sobre lis resultados de la misma, la cual  se basa en que no seamos capaces de discernir qué ha sido escrito o generado por un humano y qué no. Esta realidad la han intentado combatir empresas como OpenAI, aunque hasta ahora con poco éxito, como pone de manifiesto el hecho de que ChatGPT retire su herramienta para detectar si un texto está escrito por IA.

El pasado 20 de julio OpenAI anunció la retirada de AI Classifier, una herramienta entrenada para distinguir qué textos habían sido escritos por un humano y cuáles por ChatGPT (o cualquier otra inteligencia artificial). La razón, según la propia compañía, se basa en su bajo nivel de precisión a la hora de desarrollar esta tarea, o lo que es lo mismo, en su incapacidad para poder determinar si un texto es autoría de una máquina o una persona.

AI Classifier fue lanzado el pasado mes de enero, con el objetivo de ayudar a identificar campañas de desinformación basadas en inteligencia artificial, así como trabajos académicos fraudulentos o simplemente la presentación de un robot como si se tratara de un ser humano. La efectividad de este clasificador de textos ha estado lejos de la ideal, y su entrenamiento con el paso de los meses no ha servido para que mejore sus resultados.

En un primer momento, los responsables de OpenAI ya indicaban que la herramienta sólo era capaz de detectar el 26% de los textos generados por inteligencia artificial en inglés que se le presentaban. Al mismo tiempo, AI Classifier también erraba al marcar un 9% de los textos escritos por personas como artificiales. La esperanza dentro de la compañía de IA era que estos porcentajes mejoraran con el paso del tiempo para que fuera una aplicación confiable, pero no ha sido así.

De cara al futuro, OpenAI ha asegurado que seguirá investigando para encontrar técnicas más efectivas de reconocimiento de texto. La empresa responsable de ChatGPT también se comprometió a buscar mecanismos para que los usuarios puedan identificar claramente si archivos de audio, imágenes o vídeo han sido generados por IA, algo que ha generado bastante debate en los últimos meses.

OpenAI incluyó en su página web un listado de las limitaciones de esta tecnología a la hora de realizar la tarea encomendada, y uno es particularmente preocupante por su potencial impacto en redes sociales: es poco fiable con textos cortos (de menos de 1.000 caracteres). Esto implica que en publicaciones breves como pueden ser los tweets no se ha podido comprobar con precisión cuándo un texto es generado por IA o no, lo que deja un campo abonado a la difusión de rumores y desinformación en general.

AI Classifier sólo estuvo disponible para analizar textos en inglés. Esto implica que no pudo llegar a hacer estas comprobaciones en otros idiomas o en lenguajes de programación.

Los textos de ChatGPT que habían sido posteriormente editados (lo que supone una intervención humana) en mayor o menor grado también pasaban bajo el listón del clasificador de OpenAI, otro inconveniente que no se ha subsanado en este medio año y que ha contribuido también a que sus responsables hayan optado por retirar el acceso a esta herramienta para evitar que siga llevando a probables confusiones a sus usuarios.

ARTÍCULOS RELACIONADOS
- Advertisment -

MÁS POPULARES