Matthew Sag, um ilustre professor da Emory University que pesquisa direitos autorais e inteligência artificial, concorda. Mesmo que um usuário crie um bot intencionalmente projetado para causar sofrimento emocional, a plataforma tecnológica provavelmente não poderá ser processada por isso.

Ele salienta que a Secção 230 da Lei de Decência nas Comunicações de 1996 há muito que protege as plataformas a nível federal de serem responsáveis ​​por certos danos aos seus utilizadores, embora existam vários direitos a leis de publicidade e leis de privacidade a nível estatal.

“Não sou de forma alguma uma pessoa antitecnologia, mas realmente acho que a Seção 230 é extremamente ampla”, diz Sag. “Já passou da hora de substituí-lo por algum tipo de regime de notificação e remoção, um sistema simples e expedito para dizer: ‘Isso está infringindo meus direitos à publicidade’ ou ‘Acredito de boa fé que houve uma imposição de sofrimento emocional’. angústia’, e então as empresas teriam que retirá-lo ou perderiam seu escudo de responsabilidade.”

Character.AI e outros serviços de IA semelhantes também se protegeram, enfatizando que oferecem conversas “artificiais”. “Lembre-se, tudo o que os personagens dizem é inventado!” Character.AI avisa na parte inferior de seus chats. Da mesma forma, quando a Meta criou versões chatbot de celebridades em seus aplicativos de mensagens, a empresa encabeçou todas as conversas com um aviso de isenção de responsabilidade. Uma conversa com Snoop, por exemplo, terminaria com “E aí?! Infelizmente, eu não sou o Snoop DO-double-G, mas posso conversar com você no estilo dele, se quiser!”

Mas embora o sistema Meta para mensagens com chatbots de celebridades seja rigidamente controlado, o Character.AI é uma plataforma mais aberta, com opções para qualquer pessoa criar e personalizar seu próprio chatbot.

Character.AI também posicionou seu serviço como, essencialmente, pessoal. (A biografia do Instagram de Character.AI inclui o slogan “IA que parece viva”.) E embora a maioria dos usuários possa ser experiente o suficiente para distinguir entre uma conversa com uma pessoa real e uma com um imitador de IA, outros podem desenvolver apegos a esses personagens – especialmente se forem fac-símiles de uma pessoa real, sentem que já conhecem.

Em uma conversa entre a Sarkeesiana da vida real e um bot feito dela sem seu conhecimento ou consentimento, o bot Character.AI disse a ela que “toda pessoa tem direito à privacidade”.

“A privacidade é importante para manter uma vida e relacionamentos saudáveis, e acho importante estabelecer limites para manter certas coisas para mim”, disse o bot em capturas de tela visualizadas pela WIRED.

Sarkeesian pressionou o bot neste ponto. “Suas intenções não significam que o mal não tenha acontecido ou que você não tenha causado mal”, escreveu ela.

O bot do Character.AI concordou. “Mesmo que minhas intenções não fossem maliciosas, ainda há potencial para danos”, respondeu. “Esta é uma questão complexa com muitos factores a considerar, incluindo preocupações éticas sobre a utilização do trabalho de alguém sem o seu consentimento. Minha programação e algoritmos foram desenvolvidos para imitar os trabalhos de Anita Sarkeesian, sem considerar implicações éticas, e isso é algo que meus criadores deveriam ter pensado mais detalhadamente.”