Segurança 16 Jun
O modelo grande de linguagem (LLM) GPT-4, que alimenta a versão mais recente do ChatGPT, conseguiu conquistar o chamado “Teste de Turing”, de acordo com pesquisa recente conduzida pela Universidade da Califórnia. Com isso, a conclusão dos pesquisadores é a de que está cada vez mais difícil para nós, humanos, determinar se estamos falando com uma inteligência artificial (IA) ou com uma pessoa.
Os resultados se aproximam de uma previsão recente feita por Sam Altman, CEO da OpenAI: se o GPT-4 já consegue embaçar as linhas que diferenciam humanos de máquinas, então o sucessor GPT-5 – que a empresa já está desenvolvendo – poderá mesmo ser próximo de um “cérebro humano”.
Veja também
O Teste de Turing – às vezes referido como “Jogo da Imitação” – é um tipo de avaliação criada por Alan Turing, o matemático por trás dos avanços que levaram à criação do primeiro computador. Essencialmente, a ideia do teste é estabelecer se máquinas ou aplicações tecnológicas têm a capacidade de nos enganar ao se passar por um ser humano.
Na avaliação mais recente, os pesquisadores da Universidade da Califórnia convocaram aproximadamente 500 pessoas, pedindo a elas que interagissem por cerca de cinco minutos com quatro figuras distintas: um ser humano real, o ChatGPT na versão 3.5, o ChatGPT na versão 4 e o sistema pré-programado conhecido como “ELIZA”, da década de 1960.
As conclusões foram bem interessantes: segundo os resultados, o ser humano foi reconhecido como…bem, como um humano, por 67%. A ELIZA enganou apenas 22% dos participantes (provavelmente pelo fato de ela não ter uma rede neural nem um LLM) e o GPT 3.5 ficou em exatos 50%.
Já o GPT-4 ficou em 54%, sendo que o percentual mínimo de “aprovação” para o Teste de Turing é de “acima de 50%”. Em outras palavras: o GPT-4 é a única entre as três “máquinas” avaliadas capaz de enganar humanos por meio de interações de conversa:
"Máquinas podem confabular, misturando justificativas pós fatos para as coisas, assim como os humanos fazem”, disse ao LiveScience Nell Watson, pesquisadora de IA no Instituto de Engenharia Elétrica e Eletrônica (IEEE).
"Elas podem estar sujeitas a vieses cognitivos, serem enganadas e manipuladas, e estão se tornando mais e mais enganadoras. Todos esses elementos significam que fraquezas emanias humanas vem sendo expressadas por sistemas de IA, o que as tornam mais próximas da natureza humana que abordagens anteriores, que traziam pouco mais que uma lista de respostas.”
Ela, que participou da consultoria do estudo, disse que essa aproximação pode ter consequências amplas em ambientes sociais e econômicos, embora todo o grupo também reconheça que o Teste de Turing tem lá suas falhas, sendo um mecanismo muito simples de avaliação e que análises mais aprofundadas podem ser necessárias:
"O intelecto puro só vai até certo ponto. O que realmente importa é ser suficientemente inteligente para compreender uma situação, as habilidades de outros e teraempatia de conectar esses elementos. Capacidade é apenas um pedacinho do valor de uma IA – sua habilidade de compreender os valores, preferências e limites dos outros também é essencial. São essas qualidades que permitirão que a IA seja um conciérge fiel e confiável para nossas vidas.”
E você, o que acha de tudo isso? O avanço das IAs pode configurar algum risco para nós? Conte-nos a sua opinião nos comentários abaixo!
Comentários