ChatGPT se passa por humano e engana 73% dos participantes em estudo; entenda

ChatGPT se passa por humano e engana 73% dos participantes em estudo; entenda


GPT-4.5, do ChatGPT, foi a IA mais convincente ao simular uma conversa humana; os modelos GPT-4o, LLaMa-3 e Eliza também foram testados, mas não obtiveram o mesmo sucesso Novo modelo do ChatGPT, o GPT-4.5, conseguiu se passar por um humano e enganar 73% dos participantes em um estudo recente da Universidade da Califórnia, em San Diego (EUA). Durante cinco minutos, 284 voluntários conversaram online simultaneamente com outra pessoa e com uma inteligência artificial (IA), sem saber quem era quem. Ao final do experimento, precisavam identificar qual dos dois era real. Além do GPT-4.5, outros sistemas também foram testados. O GPT-4o, também da OpenAI, foi confundido com humanos em 56% das vezes.
O LLaMa-3, da Meta, e o Eliza, primeiro chatbot do mundo, criado na década de 1960, também participaram do estudo. Os robôs só convenceram em 23% e 21% dos casos, respectivamente. A seguir, saiba mais sobre a pesquisa e entenda como a inteligência artificial tem se aproximado do comportamento humano em interações virtuais.
🔎 ChatGPT: 7 coisas que você NUNCA deve revelar para IA – pela sua segurança
🔔 Canal do TechTudo no WhatsApp: acompanhe as principais notícias, tutoriais e reviews
Em pesquisa da Universidade da Califórnia, 73% dos participantes foram “enganados” pelo ChatGPT; saiba mais
Reprodução/Ju Jae-young/Shutterstock
📝Como usar o ChatGPT para melhorar a produtividade no trabalho? Veja no Fórum do TechTudo
Como o experimento foi feito?
O estudo contou com 284 participantes, sendo 126 estudantes de graduação da Universidade da Califórnia em San Diego e 158 voluntários recrutados pela plataforma online Prolific, que conecta pesquisadores a pessoas interessadas em participar de estudos científicos. Cada voluntário se envolveu em uma conversa virtual de cinco minutos com uma pessoa real e uma inteligência artificial, sem saber quem era quem. Ao final, precisavam identificar qual dos diálogos havia sido travado com um humano.
O experimento foi baseado no teste de Turing, método criado pelo matemático inglês Alan Turing na década de 1950 para avaliar se uma máquina é capaz de se passar por um ser humano em uma interação escrita. Se o avaliador não conseguir distinguir se o texto foi escrito por uma pessoa ou gerado artificialmente, a tecnologia é considerada aprovada.
Estudo baseou-se no método de Alan Turing, matemático inglês
Reprodução/IMPA
Quais foram os resultados do teste?
Na pesquisa americana, o GPT-4.5 recebeu instruções para adotar a personalidade de um adolescente introvertido, familiarizado com a cultura da internet e com o uso de gírias. Com essa estratégia, a IA foi apontada como humana em 73% das interações. Já quando foi testada sem receber nenhum comando (prompt) específico — ou seja, sem interpretar nenhum personagem —, a taxa de participantes enganados caiu para 36%. O dado evidencia que o contexto e o direcionamento são fundamentais para a IA conseguir se aproximar da comunicação humana de forma convincente.
Além do GPT-4.5, outros três modelos de inteligência artificial também foram testados, mas obtiveram taxas de convencimento menores: o GPT-4o, também da OpenAI (56%); o LLaMa-3, da Meta (23%); e Eliza, chatbot criado na década de 1960 (21%).
Ao receber instruções específicas, GPT-4.5 foi o modelo de IA que mais conseguiu se passar por humano
Reprodução/VCG via Getty Images
O que o estudo revela sobre o futuro da IA
Os pesquisadores destacaram que este é o primeiro registro empírico de um sistema de inteligência artificial superando humanos em um teste de Turing tradicional. No entanto, reforçam que a capacidade de se passar por uma pessoa real não significa que a IA tenha consciência ou sentimentos. Trata-se somente da simulação de comportamentos humanos, sem qualquer emoção. Além disso, embora o resultado chame atenção para o potencial de modelos como o GPT-4.5, também levanta preocupações sobre o uso indevido da tecnologia, como a disseminação de desinformação, a manipulação de vítimas para prática de crimes e os riscos à segurança digital.
Com informações de arXiv e New York Post
Mais do TechTudo
Veja também: Você confia em IA? Alunos revelam se já ‘colaram’ com a ferramenta
Você confia em IA? Alunos revelam se já ‘colaram’ com a ferramenta

Fonte: TechTudo

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *