El papel de ChatGPT en el fenómeno de las fake news

Desde que salió a escena en noviembre de 2022, es difícil ignorar ChatGPT. Con la capacidad de responder preguntas, resolver problemas y crear contenidos -por nombrar sólo algunas de sus competencias-, el chatbot de inteligencia artificial (IA) puede ser enormemente beneficioso para empresas y empleados. Tanto si se utiliza para evitar tener que buscar en Internet la respuesta a una pregunta, como para escribir una entrada en un blog o simplemente para inspirar una idea para un nuevo producto, no cabe duda de que puede ayudar a reducir costes y ahorrar tiempo y recursos.

Sin embargo, el uso de ChatGPT ha suscitado mucho debate y controversia. Uno de los principales motivos de preocupación es el empleo: si la IA puede hacer el mismo trabajo que los humanos, si no mejor, por una fracción del coste, ¿es probable que los líderes empresariales sustituyan a los humanos por esta tecnología? Goldman Sachs ha pronosticado que hasta 300 millones de empleos a tiempo completo podrían disminuir o perderse a causa de la IA y la tecnología de automatización. Sin embargo, no es tan sencillo como lo pintan algunas de las perspectivas más pesimistas.

La generación de las fake news

La genialidad y la desventaja de ChatGPT es que no funciona como un motor de búsqueda. Aunque el proceso inicial es el mismo -recopilar información de una base de datos-, ChatGPT crea una respuesta haciendo una serie de conjeturas basadas en la información que encuentra, en lugar de transmitirla exactamente como la encuentra, como haría un motor de búsqueda. Aunque las respuestas que genera son claras y parecen precisas -de hecho, algunas fuentes afirman que alcanza una tasa de precisión del 99%, ¿cómo podemos estar seguros de que son correctas? Al fin y al cabo, si has preguntado a ChatGPT, lo más probable es que sea porque tú mismo no conoces la respuesta.

El hecho es que la información puede ser malinterpretada o mal comunicada en la serie de conjeturas que ChatGPT hace para crear una respuesta conversacional a la pregunta. ChatGPT aún no está en condiciones de comprender la complejidad del lenguaje el 100% de las veces. Por lo tanto, corremos el riesgo de caer en errores.

Algunos de estos errores pueden ser detectados fácilmente, pero hay otros que quizá no sean tan obvios y que lleven a equivocación, sobre todo si el usuario no tiene conocimiento sobre el tema.

Por esta razón, la respuesta puede parecer correcta y, por lo tanto, se toma como un hecho. Si luego se publica en Internet o se utiliza en un trabajo académico, se consolidará como un hecho y contribuirá a las noticias falsas que actualmente constituyen el 62% de toda la información de Internet.

Esta gran proporción de noticias falsas también es preocupante cuando se trata de que ChatGPT obtenga la información necesaria para responder a una pregunta. Si más de la mitad de la información de Internet es falsa, es muy probable que ChatGPT consuma esas fuentes a la hora de recopilar los datos para responder a tu pregunta. Por lo tanto, incluso si interpreta la información correctamente, puede proporcionar una respuesta falsa.

Además, con más de 100 millones de usuarios en todo el mundo, la probabilidad de que se le hagan las mismas preguntas es alta. Aunque no dé siempre exactamente la misma respuesta, si utiliza información de la misma base de datos dará respuestas similares, por lo que, si éstas son inexactas, la información errónea podría acabar en Internet varias veces. Una vez que una estadística o una afirmación se ha repetido varias veces, se confía en ella y se considera un hecho y no una ficción.

¿Y esto qué significa?

Algunas empresas, e incluso países enteros, toman estas preocupaciones como prueba de que debería haber una prohibición general del uso de ChatGPT. Esto no es necesariamente lo mejor. Con un poco de experiencia adicional aplicada para comprobar la información que ha proporcionado, ChatGPT puede beneficiar a las empresas, especialmente en el clima económico actual en el que todo el mundo tiene que hacer más con menos. ChatGPT puede aliviar parte de la carga aportando ideas creativas o asumiendo las tareas manuales y repetitivas que tanto tiempo consumen.

Esto tampoco quiere decir que ChatGPT vaya a quitarle el trabajo a todo el mundo. Hasta que la precisión de ChatGPT mejore, al menos, nuestros trabajos están a salvo. Podemos considerarlo más como un “compañero de trabajo IA” que puede asumir parte de nuestra carga de tareas y ayudarnos, pero en última instancia la experiencia, conocimientos y razonamiento siempre serán valiosos y necesarios para dar el visto bueno final. Incluso una vez que la IA haya sido entrenada a un nivel superior, es poco probable que, sin la capacidad de razonar, un chatbot u otra tecnología de automatización sea capaz de completar tareas de alto nivel para justificar la sustitución completa de los humanos.

Noticias Relacionadas
Deja una respuesta

Su dirección de correo electrónico no será publicada.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.