Quando o uso de inteligência artificial se enquadra em crimes virtuais?

O texto fixa pena de 1 a 4 anos de prisão e multa para quem criar ou divulgar “montagens ou modificação que tenham como objetivo incluir pessoa em cena de nudez ou ato sexual”, inclusive com uso de inteligência artificial em vídeo, áudio ou fotografia.

O projeto foi aprovado em comemoração ao Dia Nacional de Mobilização dos Homens pelo Fim da Violência contra Mulheres, celebrado em 6 de dezembro. Porém, apesar de votado em um pacote de novas lei em defesa das mulheres, ele assume um contorno mais amplo, ao sinalizar que a legislação brasileira caminha para disciplinar cada vez mais o uso de IA e suas consequências no mundo real.

Para a geração que hoje define os rumos da sociedade, a inteligência artificial ainda reside no futuro, distante do nosso cotidiano. Porém, para os jovens de uma geração que já nasceu conectada, a IA faz parte da rotina. Basta lembra que, em novembro do ano passado, alunos de uma escola do Rio de Janeiro criaram “deep fakes” com falsas imagens de colegas nuas geradas artificialmente.

Além da proteção às mulheres, a legislação traz o recado claro de que o mau uso da IA traz consequências para as vítimas e que os autores dessas ações estão ao alcance da lei e serão punidos.

O projeto agora segue para o Senado e, se aprovado, vai para a sanção presidencial. Assim que entrar em vigor, a lei terá aplicações em casos de bullying virtual, difamação, assédio moral e sexual, entre outros.

É redundante, porém fundamental, lembrar os prejuízos psicológicos e sociais que este tipo de ação causa sobre as vítimas. A criminalização de “fake nudes” é o início do processo legal para normatizar um leque quase infinito de ações ilícitas que poderão ser cometidas por meio de IA.

Hoje, por exemplo, a tecnologia já permite que se altere voz e imagem em chamadas ao vivo pela internet. Uma tecnologia que possibilita uma infinidade de crimes virtuais, de roubo de informações pessoais, ferindo a Lei Geral de Proteção de Dados, a novos golpes pela internet. Em um prazo curtíssimo, será preciso utilizar aplicativos de segurança digital para ter certeza de quem é a pessoa que está do outro lado de uma chamada, mesmo que de vídeo.

No momento, é um avanço da legislação punir divulgação de cenas de estupro e estupro de vulneráveis, mesmo que sejam “deep fakes” criadas por IA. Cabe aos legisladores brasileiros garantir que as nossas leis evoluam na mesma velocidade das novas tecnologias.

*Ana Paula Siqueira é sócia do Siqueira Lazzareschi de Mesquita Advogados, diretora da ClassNet Consultoria, doutoranda em bullying digital pela PUC-SP e professora universitária

Quer ficar por dentro do mundo da tecnologia e ainda baixar gratuitamente nosso e-book Manual de Segurança na Internet? Clique aqui e assine a newsletter do 33Giga


Comments

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *