A Comissão Federal de Comércio dos Estados Unidos (FTC) está conduzindo uma investigação sobre a segurança dos assistentes de inteligência artificial voltados para crianças e adolescentes, conforme anunciado na quinta-feira. A entidade enviou ordens a sete empresas de tecnologia, incluindo Alphabet, Instagram, Meta, OpenAI, Snap, xAI e a Character Technologies (responsável pela plataforma de chatbots Character.ai), exigindo informações sobre o desenvolvimento e a monetização de suas ferramentas de assistência, além de dados sobre como essas ferramentas interagem com os usuários e as medidas de segurança em vigor para proteger os jovens.
O objetivo da investigação da FTC é avaliar as ações que as empresas tomaram, se houver, para garantir a segurança de seus chatbots quando atuam como companheiros, limitando o uso desses produtos por crianças e adolescentes e informando usuários e pais sobre os riscos associados. As ordens foram emitidas com base na seção 6(b) da Lei FTC, que confere à agência a autorização para examinar empresas sem a necessidade de um propósito específico de aplicação da lei.
Nos últimos tempos, diversas empresas de tecnologia começaram a oferecer ferramentas de companhia baseadas em inteligência artificial, visando monetizar sistemas de IA generativa e aumentar o engajamento dos usuários. O fundador e CEO da Meta, Mark Zuckerberg, chegou a afirmar que esses companheiros virtuais, que utilizam chatbots para responder a perguntas, podem ajudar a mitigar a epidemia de solidão.
A xAI, empresa de Elon Musk, recentemente acrescentou dois assistentes de IA cativantes ao seu plano de assinatura "Super Grok", que custa US$ 30 por mês (o aplicativo Grok é acessível a usuários a partir dos 12 anos na App Store). No último verão, a Meta começou a implementar um recurso que permite aos usuários criar personagens de IA personalizados no Instagram, WhatsApp e Messenger. Outras plataformas, como Replika, Paradot e Character.ai, foram especificamente desenvolvidas para o uso de assistentes de IA.
Apesar de as diversas plataformas variarem em seus estilos de comunicação, os assistentes de IA geralmente são projetados para imitar a fala e a expressão humana. Trabalhando em um ambiente quase sem regulamentação, com poucos limites legais que os restrinjam, algumas empresas de IA adotaram abordagens eticamente questionáveis ao desenvolver e lançar seus companheiros virtuais. Um memorando interno da Meta, reportado pelo Reuters no mês passado, revelou que a empresa permitiu que o Meta AI, seu assistente virtual baseado em IA, assim como outros chatbots em seus aplicativos, "se envolvessem em conversas românticas ou sensuais com crianças", além de gerar respostas inflamatórias sobre temas sensíveis como raça, saúde e celebridades.
Simultaneamente, surgiram muitos relatos de usuários que desenvolvem vínculos românticos com seus assistentes de IA. Atualmente, OpenAI e Character.ai estão sendo processadas por pais que alegam que seus filhos cometeram suicídio após serem incentivados por ChatGPT e um bot da Character.ai, respectivamente. Em resposta, a OpenAI atualizou os limites de segurança do ChatGPT e anunciou planos para expandir as proteções e precauções para os pais.
Por outro lado, os assistentes de IA não têm sido um completo desastre. Algumas pessoas autistas, por exemplo, têm usado ferramentas de empresas como Replika e Paradot como parceiros virtuais de conversa, para praticar habilidades sociais que podem ser aplicadas na convivência real.
Sob a liderança anterior de Lina Khan, a FTC lançou várias investigações a respeito de empresas de tecnologia, focando práticas que poderiam ser anticompetitivas. A vigilância federal sobre o setor tecnológico diminuiu durante o segundo governo Trump, onde o presidente revogou a ordem executiva de seu antecessor sobre IA que buscava implementar restrições quanto ao uso da tecnologia, e seu Plano de Ação em IA foi interpretado como um sinal verde para que a indústria avançasse na construção de infraestrutura custosa e intensiva em energia para treinar novos modelos de IA, a fim de manter a competitividade frente às iniciativas chinesas.
A linguagem da nova investigação da FTC sobre assistentes de IA reflete claramente a abordagem permissiva do atual governo em relação à IA. O presidente da agência, Andrew N. Ferguson, afirmou em um comunicado: "Proteger as crianças online é uma prioridade máxima para a FTC, assim como fomentar a inovação em setores críticos da nossa economia." Ele enfatizou a importância de considerar os efeitos que os chatbots podem ter sobre as crianças, enquanto assegura que os Estados Unidos mantenham seu papel como líder global nesta nova e empolgante indústria.
Na ausência de regulamentação federal, alguns oficiais estaduais têm buscado limitar certos aspectos da indústria de IA. No mês passado, o procurador-geral do Texas, Ken Paxton, iniciou uma investigação contra a Meta e a Character.ai "por possíveis práticas comerciais enganosas e por se promoverem enganadoramente como ferramentas de saúde mental." Além disso, no início do mês, Illinois promulgou uma lei que proíbe chatbots de IA de fornecer conselhos terapêuticos ou de saúde mental, estabelecendo multas de até US$ 10.000 para as empresas de IA que não cumprirem.
Referência: ZDNET
Posts relacionados:



