É cada vez mais complicado evitar as tecnologias artificiais (IA), que se tornam mais comuns. Um exemplo claro é a forma como as respostas da IA estão aparecendo nas buscas do Google. A segurança em relação à IA é fundamental nesta era de ubiquidade tecnológica. Portanto, como um usuário de IA, como você pode utilizá-la de forma segura e eficaz, especialmente no que diz respeito à IA generativa (Gen AI)?
Professores assistentes da Escola de Computação da Carnegie Mellon, Maarten Sap e Sherry Tongshuang Wu, subiram ao palco do SXSW para discutir as limitações dos grandes modelos de linguagem (LLMs), que são a base das populares ferramentas de IA generativa como o ChatGPT, e como as pessoas podem aproveitar essas tecnologias de forma mais eficiente. “Elas são ótimas, estão em toda parte, mas estão longe de ser perfeitas”, afirmou Sap.
As alterações que você pode implementar em suas interações diárias com a IA são simples e podem protegê-lo das limitações da IA, além de proporcionar respostas mais precisas. Continue lendo para descobrir cinco dicas que especialistas recomendam para otimizar o uso da IA.
1. Forneça instruções melhores
Devido às capacidades de conversa da IA, muitas pessoas utilizam comandos curtos e vagos, como se estivessem conversando com um amigo. O problema é que, sem instruções claras, os sistemas de IA podem interpretar incorretamente o significado do seu prompt, já que não possuem a habilidade humana de ler nas entrelinhas. Para demonstrar esse problema, durante a sessão, Sap e Wu disseram a um chatbot que estavam lendo um milhão de livros, e a IA interpretou isso literalmente. Sap explicou que sua pesquisa constatou que os LLMs modernos enfrentam dificuldades para entender referências não literais de forma correta mais de 50% das vezes.
A melhor maneira de contornar essa questão é esclarecer seus comandos, adicionando requisitos mais explícitos que deixem menos espaço para interpretação ou erros. Wu sugeriu pensar nos chatbots como assistentes, instruindo-os de forma clara sobre exatamente o que você deseja realizar. Embora isso possa exigir um esforço adicional ao elaborar um prompt, o resultado deve se alinhar melhor com suas expectativas.
2. Verifique suas respostas
Se você já utilizou um chatbot de IA, sabe que eles podem apresentar informações incorretas, um fenômeno conhecido como alucinação. As alucinações podem ocorrer de diversas formas, como fornecer respostas factualmente incorretas, resumir informações de maneira equivocada ou concordar com fatos falsos compartilhados por um usuário. Sap afirmou que as alucinações ocorrem entre 1% e 25% das vezes em casos de uso diário. As taxas de alucinação são ainda mais altas em domínios especializados, como direito e medicina, superando 50%. Essas alucinações são difíceis de identificar, pois são apresentadas de maneira que soa plausível, mesmo que sejam sem sentido.
Os modelos frequentemente reafirmam suas respostas com marcadores como “estou confiante”, mesmo ao fornecer informações incorretas. Um artigo de pesquisa mencionado na apresentação revelou que os modelos de IA eram certos, mas incorretos, em suas respostas 47% das vezes. Portanto, a melhor maneira de se proteger contra alucinações é verificar suas respostas novamente. Algumas táticas incluem cruzar suas saídas com fontes externas, como Google ou veículos de notícias confiáveis, ou perguntar ao modelo novamente, usando uma redação diferente, para ver se a IA fornece a mesma resposta.
3. Mantenha os dados que são importantes privados
As ferramentas de IA generativa são treinadas com grandes quantidades de dados e exigem dados para continuar aprendendo e se tornar modelos mais inteligentes e eficientes. Como resultado, esses modelos frequentemente usam suas saídas para treinamento adicional. O problema é que eles podem repetir seus dados de treinamento em suas respostas, o que significa que suas informações privadas poderiam ser utilizadas em respostas de outras pessoas, expondo seus dados a terceiros. Além disso, há um risco ao usar aplicativos web, pois suas informações privadas deixam seu dispositivo para serem processadas na nuvem, o que tem implicações de segurança.
A melhor abordagem para manter uma boa higiene em relação à IA é evitar compartilhar informações sensíveis ou pessoais com os LLMs. Haverá situações em que a assistência desejada poderá exigir o uso de dados pessoais, mas você pode omitir esses dados para garantir que obtenha ajuda sem correr riscos. Muitos ferramentas de IA, incluindo o ChatGPT, oferecem opções que permitem aos usuários optar por não compartilhar dados. Optar por não participar é sempre uma boa opção, mesmo que você não planeje usar dados sensíveis.
4. Tenha cuidado ao falar sobre os LLMs
As capacidades dos sistemas de IA e a habilidade de interagir com essas ferramentas usando linguagem natural levaram algumas pessoas a superestimar o poder desses bots. O antropomorfismo, ou a atribuição de características humanas, é uma armadilha perigosa. Se as pessoas começam a ver esses sistemas de IA como próximos aos humanos, podem confiar neles com mais responsabilidade e dados.
Uma maneira de mitigar esse problema é evitar atribuir características humanas aos modelos de IA ao se referir a eles. Em vez de dizer “o modelo acha que você deseja uma resposta equilibrada”, Sap sugeriu uma alternativa melhor: “O modelo é projetado para gerar respostas equilibradas com base em seus dados de treinamento”.
5. Pense com cuidado sobre quando usar os LLMs
Embora possa parecer que esses modelos podem ajudar com quase todas as tarefas, existem muitas situações em que eles podem não fornecer a melhor assistência. Embora existam benchmarks disponíveis, eles cobrem apenas uma pequena parte de como os usuários interagem com os LLMs. Além disso, os LLMs podem não funcionar da melhor maneira para todos. Para além das alucinações mencionadas, também houve casos registrados em que os LLMs tomaram decisões racistas ou apresentaram preconceitos centrados no Ocidente. Esses preconceitos mostram que os modelos podem não ser adequados para muitos casos de uso.
Dessa forma, a solução é ser cuidadoso e ponderado ao usar os LLMs. Isso inclui avaliar o impacto de usar um LLM para determinar se é a solução correta para seu problema. Também é útil observar em quais tarefas os modelos se destacam e empregar o melhor modelo para suas necessidades.
Referência: Getty Images/J Studios