OpenAI no puede decir si algo fue escrito por AI después de todo

Open AI Logo
/OpenAI cierra una herramienta destinada a detectar texto escrito por IA debido a su baja precisión.
julio 26, 2023
Picture of OuttaBox

OuttaBox

OpenAI cerró una herramienta que se suponía que diferenciaba la escritura humana de la IA debido a una baja tasa de precisión. En un blog (actualizado) , OpenAI dijo que decidió finalizar su clasificador de IA a partir del 20 de julio. “Estamos trabajando para incorporar comentarios y actualmente estamos investigando técnicas de procedencia más efectivas para el texto”, dijo la compañía.

A medida que cierra la herramienta para capturar la escritura generada por IA, OpenAI dijo que planea «desarrollar e implementar mecanismos que permitan a los usuarios comprender si el contenido de audio o visual es generado por IA». Sin embargo, aún no se sabe cuáles podrían ser esos mecanismos.

OpenAI admitió completamente que el clasificador nunca fue muy bueno para capturar texto generado por IA y advirtió que podría arrojar falsos positivos, también conocido como texto escrito por humanos etiquetado como generado por IA. OpenAI, antes de agregar su actualización y cerrar la herramienta, dijo que el clasificador podría mejorar con más datos. 

Después de que ChatGPT de OpenAI irrumpiera en escena y se convirtiera en una de las aplicaciones de más rápido crecimiento de la historia, la gente se apresuró a comprender la tecnología. Varios sectores dieron la alarma sobre el texto y el arte generados por IA, en particular los educadores que estaban preocupados de que los estudiantes ya no estudiaran y simplemente dejaran que ChatGPT escribiera su tarea. Las escuelas de Nueva York incluso prohibieron el acceso a ChatGPT en los terrenos escolares en medio de preocupaciones sobre la precisión, la seguridad y las trampas.

La información errónea a través de la IA también ha sido una preocupación, con estudios que muestran que el texto generado por IA, como los tweets , podría ser más convincente que los escritos por humanos. Los gobiernos aún no han descubierto cómo controlar la IA y, hasta ahora, están dejando que grupos y organizaciones individuales establezcan sus propias reglas y desarrollen sus propias medidas de protección para manejar la avalancha de texto generado por computadora. Y parece que, por ahora, nadie, ni siquiera la empresa que ayudó a impulsar la moda de la IA generativa en primer lugar, tiene respuestas sobre cómo lidiar con todo esto. Aunque algunas personas quedan atrapadas , solo será más difícil diferenciar fácilmente la IA y el trabajo humano.

OpenAI también perdió recientemente a su líder en confianza y seguridad en un momento en que la Comisión Federal de Comercio está investigando OpenAI para ver cómo examina la información y los datos. OpenAI se negó a comentar más allá de su publicación de blog.