Pesquisadores descobriram que as pessoas podem ser mais suscetíveis à desinformação se for escrita por IA, especificamente pelo modelo de linguagem GPT-3 da OpenAI. Os pesquisadores entrevistaram 697 pessoas e descobriram que a maioria delas não conseguia distinguir entre tweets gerados pelo GPT-3 e tweets escritos por humanos. Além disso, eles geralmente achavam os tweets gerados pela IA mais convincentes.
No estudo, os participantes tinham mais dificuldade em reconhecer a desinformação se fosse escrita pelo modelo de linguagem do que se fosse escrita por outra pessoa. Da mesma forma, eles também eram mais capazes de identificar corretamente informações precisas se fossem escritas pelo GPT-3 em vez de por um humano.
Os tópicos escolhidos pelos pesquisadores estavam comumente associados à desinformação, como vacinas, COVID-19, evolução e tecnologia 5G. Os participantes tiveram mais facilidade em reconhecer a precisão dos tweets contendo informações corretas quando eram gerados pelo GPT-3 e eram mais enganados pelos tweets da IA contendo desinformação.
Os tweets escritos pelo GPT-3 eram “indistinguíveis” de conteúdo orgânico, e as pessoas entrevistadas simplesmente não conseguiam dizer a diferença.
A maioria dos entrevistados no estudo tinha diploma de bacharel, principalmente nas ciências sociais e humanidades, ciências naturais ou ciências médicas. A maioria era do Reino Unido, Austrália, Canadá, Estados Unidos e Irlanda.
Por fim, é importante notar que, embora o GPT-3 possa ser usado para gerar informações enganosas, também tem o potencial de ser usado para benefício, dependendo das intenções do usuário. Giovanni Spitale, o autor principal do estudo, mencionou que a tecnologia é um “amplificador da intencionalidade humana” e que existem maneiras de desenvolver a tecnologia para torná-la mais difícil de ser usada para promover a desinformação.
Fonte: theverge.com