Com a tecnologia de inteligência artificial (IA) se tornando cada vez mais comum, é cada vez mais complicado escapar de sua influência. Um exemplo claro disso são as respostas de IA exibidas nas pesquisas do Google. A segurança em relação à IA é mais crucial do que nunca, e como usuário de IA, você deve se perguntar: como usar a IA generativa (Gen AI) de maneira segura?
Professores assistentes da Escola de Ciências da Computação da Carnegie Mellon, Maarten Sap e Sherry Tongshuang Wu, participaram do SXSW para alertar as pessoas sobre as limitações dos modelos de linguagem grandes (LLMs), que são o tipo de modelo de aprendizado de máquina por trás das ferramentas de IA generativa mais populares, como o ChatGPT. “Eles são incríveis e estão em toda parte, mas estão longe de serem perfeitos”, destacou Sap.
As pequenas alterações que você pode implementar em suas interações diárias com a IA são simples e permitem que você se proteja das falhas da tecnologia, além de obter respostas mais precisas dos chatbots. Continue lendo para descobrir cinco estratégias recomendadas pelos especialistas para otimizar o uso da IA.
1. Ofereça instruções mais claras à IA
Devido à capacidade conversacional da IA, as pessoas costumam usar comandos mais curtos e vagos, como se estivessem conversando com um amigo. Porém, quando as instruções são imprecisas, os sistemas de IA podem interpretar o que você escreveu de forma errada, uma vez que não têm as habilidades humanas para entender nuances. Para ilustrar, durante a apresentação, Sap e Wu contaram a um chatbot que estavam lendo um milhão de livros, e o chatbot interpretou isso literalmente, sem perceber que a informação era redundante. Sap ressaltou que, em sua pesquisa, constatou que os LLMs modernos têm dificuldade em entender referências não literais de maneira literal mais de 50% das vezes.
A melhor forma de contornar esse problema é ser mais explícito em suas solicitações, reduzindo as chances de interpretação equivocada. Wu sugeriu pensar nos chatbots como assistentes, instruindo-os claramente sobre o que você deseja que seja feito. Embora essa abordagem demande mais esforço ao escrever um prompt, o resultado será mais alinhado às suas necessidades.
2. Verifique suas respostas
Se você já utilizou um chatbot de IA, sabe que eles podem “alucinar”, ou seja, apresentar informações incorretas. Essas alucinações podem ocorrer de várias maneiras, como gerar respostas factualmente incorretas, resumir informações de forma inadequada ou concordar com dados falsos fornecidos pelo usuário. Sap mencionou que essas alucinações acontecem entre 1% e 25% das vezes em casos de uso diário; e a taxa é ainda maior em domínios mais especializados, como direito e medicina, superando 50%. Embora essas alucinações possam ser difíceis de detectar, elas são apresentadas de maneira plausível, mesmo que não façam sentido.
Os modelos muitas vezes reafirmam suas respostas, utilizando termos como “estou confiante” mesmo quando a informação está errada. Um artigo de pesquisa mencionado na apresentação indicou que os modelos de IA estavam certos, mas incorretos, em suas respostas 47% das vezes. Portanto, para se proteger contra essas alucinações, a melhor estratégia é verificar suas respostas. Táticas úteis incluem cruzar suas saídas com fontes externas confiáveis, como o Google ou veículos de notícias que você confia, ou perguntar ao modelo novamente, reformulando a questão, para ver se a IA oferece a mesma resposta. Embora possa ser tentador buscar o auxílio do ChatGPT em assuntos que você não domina, é mais fácil identificar erros quando suas perguntas estão dentro da sua área de especialização.
3. Mantenha seus dados privados
As ferramentas de IA generativa são treinadas com grandes volumes de dados e precisam de informações para continuar aprendendo e se tornando modelos mais inteligentes e eficientes. Assim, muitas vezes, os modelos utilizam suas saídas para novos treinamentos. O problema surge quando os modelos podem reproduzir dados de treinamento em suas respostas, expondo informações pessoais em respostas que seguem. Também existe um risco ao usar aplicações web, pois suas informações pessoais podem ser processadas na nuvem, levantando preocupações de segurança.
A melhor forma de manter a privacidade é evitar compartilhar dados sensíveis ou pessoais com LLMs. Em alguns casos, a assistência que você deseja pode exigir o uso de dados pessoais. Nesses casos, é possível ocultar essas informações para garantir que você receba ajuda sem comprometimento. Muitas ferramentas de IA, incluindo o ChatGPT, oferecem opções que permitem aos usuários optar por não participar da coleta de dados. Essa é sempre uma boa opção, mesmo que você não pretenda usar dados sensíveis.
4. Cuidado com a forma como você se refere aos LLMs
A capacidade dos sistemas de IA e o uso de linguagem natural para se comunicar com essas ferramentas levaram algumas pessoas a superestimar o poder desses bots. Atribuir características humanas à IA pode ser problemático. Se as pessoas considerarem esses sistemas como tendo qualidades humanas, podem confiar a eles mais responsabilidades e dados do que deveriam.
Uma forma de ajudar a mitigar esse problema é evitar atribuir qualidades humanas aos modelos de IA ao se referir a eles, segundo os especialistas. Ao invés de dizer “o modelo acha que você quer uma resposta equilibrada”, Sap sugere uma alternativa melhor: “o modelo é projetado para gerar respostas equilibradas com base em seus dados de treinamento”.
5. Pense cuidadosamente sobre quando usar LLMs
Embora pareça que esses modelos podem ajudar em quase todas as tarefas, há muitas situações em que eles podem não oferecer a melhor solução. Embora benchmarks estejam disponíveis, eles abordam apenas uma fração das formas como os usuários interagem com LLMs. Além disso, os LLMs podem não funcionar da melhor maneira para todos. Além das alucinações mencionadas, há casos documentados em que LLMs tomam decisões racistas ou apresentam preconceitos centrados no Ocidente. Esses preconceitos mostram que os modelos podem não ser adequados para muitas situações.
Por isso, a solução é ser reflexivo e cuidadoso ao usar LLMs. Isso envolve avaliar o impacto do uso de um LLM para determinar se é a solução adequada para o seu problema. Também é útil observar em quais tarefas os modelos se destacam e empregar o modelo mais apropriado para suas necessidades.
Referência: https://www.zdnet.com/article/5-quick-ways-to-tweak-your-ai-use-for-better-results-and-a-safer-experience/
Posts relacionados:



