Inovação em IA: quais são as causas dos equívocos da Inteligência Artificial?

A inteligência artificial (IA) tem transformado vários setores, entretanto, também apresenta desafios consideráveis. Um dos principais é o fenômeno denominado “alucinações”, um termo utilizado no setor tecnológico para ilustrar erros cometidos por sistemas de IA generativa. Marcelo Tripoli, especialista em inovação, aponta que, ao contrário de uma pesquisa convencional na internet, as respostas emitidas pela IA costumam parecer extremamente confiáveis, o que pode levar os usuários a depositar confiança excessiva nelas. “As alucinações da IA geralmente são bem elaboradas, não se tratam de frases sem sentido”, diz Tripoli.

O risco das respostas que parecem corretas
Tripoli adverte que essa confiança pode resultar em erros significativos e escolhas inadequadas. “Ela faz suposições com grande precisão. Na verdade, não possui consciência, mas age com confiança em suas respostas”, observa Tripoli, enfatizando que isso pode induzir uma pessoa a tomar decisões baseadas em informações erradas. Um experimento realizado com o ChatGPT evidenciou essa questão. Quando interrogado sobre o filme “Ainda Estou Aqui”, de Walter Salles, o sistema forneceu dados totalmente incorretos em três tentativas distintas, sem reconhecer sua falta de conhecimento.

Elementos que afetam as “alucinações”
Tripoli explica que as alucinações surgem devido a diversos aspectos, como a falta de atualização da base de dados e a análise estatística realizada pela IA. “O que a máquina realiza é uma análise probabilística da utilização das palavras”, esclarece ele. O comentarista também ressalta que o idioma em que a consulta é feitas pode impactar a exatidão das respostas, pois muitos sistemas de IA são projetados inicialmente em inglês e, depois, traduzem para outros idiomas em tempo real.

Sugestões para um uso seguro
Para evitar complicações decorrentes das alucinações da IA, Tripoli sugere:
– Conferir a informação em diversas fontes de IA;
– Não aceitar a primeira resposta como sendo a definitiva;
– Manter uma visão crítica em relação às informações obtidas;
– Evitar usar a IA como ferramenta definitiva para decisões importantes sem uma verificação adicional.

Apesar dos desafios atuais, Tripoli mantém uma visão otimista em relação ao futuro. Ele prevê que a taxa de alucinações deverá reduzir consideravelmente nos próximos anos, potencialmente alcançando menos de 2% de erro. Porém, até esse cenário se concretizar, a supervisão e a validação humana permanecem essenciais para o uso de sistemas de IA.

Referência: [link da matéria original]

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima