Estudio revela los problemas de la desinformación con ChatGPT
El ChatGPT pueden informar y desinformar a las personas de manera más efectiva que los humanos.
Science Advances ha publicado un estudio que revela que el ChatGPT-3 y otras herramientas de Inteligencia Artificial (IA) pueden informar y desinformar a los usuarios de redes sociales de manera más efectiva que los humanos.
Liderado por la Universidad de Zúrich, un equipo de investigación llevó a cabo un estudio con 679 participantes utilizando la versión ChatGPT-3. Los resultados mostraron que los participantes tuvieron dificultades para distinguir entre los tuits generados por humanos y los generados por el chatbot.
Además, también encontraron dificultades para identificar qué mensajes generados por IA eran precisos y cuáles no lo eran. Dado que estas herramientas son relativamente nuevas en el ámbito público, el equipo de investigación decidió profundizar en varios aspectos de su uso. Para ello, reclutaron a personas de habla inglesa de Estados Unidos, Reino Unido, Canadá, Australia e Irlanda, con edades principalmente entre 26 y 76 años.
Los autores destacan que el uso generalizado de ChatGPT ha generado preocupación por la propagación de desinformación en línea, especialmente en las plataformas virtuales, lo que puede tener graves consecuencias en la sociedad.
Desde luego, este estudio plantea importantes interrogantes sobre la necesidad de regulaciones y controles para mitigar los efectos perjudiciales de la desinformación en línea.