1. Pular para o conteúdo
  2. Pular para o menu principal
  3. Ver mais sites da DW

Senado aprova projeto para regulamentar IA no Brasil

11 de dezembro de 2024

Proposta prevê níveis de risco para sistemas de Inteligência Artificial, remuneração por direitos autorais e direitos do usuário. Texto segue para Câmara dos Deputados.

https://p.dw.com/p/4nz0W
Imagem ilustrativa do aplicativo do ChatGPT
Se projeto for aprovado na Câmara, IA generativas e de propósito geral, como o ChatGPT, terão que se adequar às novas regrasFoto: Jaap Arriens/NurPhoto/picture alliance

O plenário do Senado aprovou nesta terça-feira (10/12), de forma simbólica, o marco regulatório da Inteligência Artificial. O projeto estabelece as regras para o uso de sistemas de IA no Brasil, além de definir níveis de risco da tecnologia. O texto ainda precisa ser avaliado pela Câmara dos Deputados antes de ser encaminhado para sanção.

A proposta apresentada pelo presidente do Senado, Rodrigo Pacheco, em 2023, tinha como objetivo principal estabelecer direitos para pessoas afetadas pela tecnologia e definir parâmetros de supervisão e fiscalização da atividade. O texto ficou parado numa comissão especial criada para avaliar a proposta, e a versão final só foi aprovada na última quinta-feira pelo colegiado após intensa negociação com a oposição e com empresas que atuam no setor.

O projeto define níveis de risco para os sistemas de IA, sob os quais incidem diferentes regulamentações. A categoria é definida a partir do impacto que determinado sistema tem na vida humana e nos direitos fundamentais. Tecnologias que se enquadram no nível "risco excessivo" não podem ser desenvolvidas, segundo o texto.

Se aprovada na Câmara, a regra incidirá sobre diferentes aplicações, desde as usadas para identificação de pessoas, até as mais complexas empregadas na indústria, no trânsito e no abastecimento de energia. Ferramentas embutidas em sistemas de busca e de geração de conteúdo, amplamente utilizadas por usuários nas redes sociais, também deverão se adequar.

A multa para o descumprimento das regras pode chegar a R$ 50 milhões ou a 2% do faturamento bruto da empresa. A suspensão do sistema também pode ser aplicada em alguns casos, em um modelo similar ao que foi usado pela Justiça para congelar as atividades do X no Brasil. Ainda existe a possibilidade de a empresa ser responsabilizada civilmente caso seja comprovado que o sistema causou dano a uma pessoa ou grupo de pessoas. As sanções administrativas ficariam a cargo da Autoridade Nacional de Proteção de Dados (ANPD).

Como a IA está sendo usada agora e como pode ser no futuro?

Categorias de risco

Entre os projetos de "risco excessivo" e que, portanto, seriam proibidos, estão os chamados sistemas de armas autônomas, o uso da IA para explorar vulnerabilidades de pessoas que induzam comportamentos danosos à saúde e à segurança e a criação de materiais que violem os direitos de crianças e adolescentes.

Também seria vedada a avaliação de traços de personalidade e comportamento social para prever o cometimento de crimes.

A regra permite, porém, o uso de câmeras para identificar pessoas em tempo real e em locais públicos, desde que com foco em encontrar vítimas, encontrar pessoas desaparecidas, capturar fugitivos, reprimir crimes em flagrante cuja pena seja maior de dois anos de prisão ou cumprir mandados.

Já entre os sistemas de "alto risco" estão os veículos autônomos, a seleção de estudantes para acesso à educação, o recrutamento e demissão de trabalhadores e a gestão de prioridade em serviços de emergência. A lista é "aberto-explicativa", o que permite a inclusão de novas tecnologias que se enquadrem na categoria e influenciam decisões relevantes dos cidadãos.

Parte da disputa no Senado se concentrou no papel que as ferramentas usadas por big techs como a Meta teriam no novo regramento. No texto aprovado pelos parlamentares, algoritmos de distribuição de conteúdo nas redes sociais, usados por essas empresas, ficaram de fora da categoria de "alto risco", o que flexibiliza a fiscalização das atividades.

Deepfake: usando a IA para descobrir a verdade

Avaliação

Em sistemas de alto risco, uma avaliação de impacto algorítmico deverá ser realizada, e os provedores da tecnologia deverão garantir a segurança do sistema. Vieses discriminatórios também devem ser mitigados.

O dispositivo que colocava o "risco à integridade da informação, à liberdade de expressão, ao processo democrático e ao pluralismo político" como critério para definir o nível de vulnerabilidade de uma tecnologia não foi aceito pela comissão por demanda da oposição e não chegou a ser avaliado pelo plenário.

As IA generativas e de propósito geral, como o ChatGPT, terão regras específicas. Entre elas, seus conteúdos produzidos de forma sintética, como um texto, um vídeo, ou uma imagem, devem conter um rótulo, ainda que oculto visualmente, comprovando que foi criado por uma inteligência artificial.

Direitos autorais

O texto final manteve um dispositivo bastante debatido que garante o direito autoral sobre obras. A proposta permite que conteúdos protegidos sejam buscados e usados para o aperfeiçoamento de IA. Porém, o material precisa ser obtido de forma legítima e não pode ter fins comerciais. É o caso de instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e projetos educacionais.

Homem olha para dois robôs em exposição na China
Inteligência artificial é usada em todo o mundo e em diversos contextos, como na indústria.Foto: Liu Xu/Xinhua/picture alliance

Quando houver fins comerciais, a dona da tecnologia deve negociar e remunerar o titular dos direitos autorais de determinado conteúdo. Ele pode também negar que a obra, uma música, por exemplo, seja acessada para treinar determinado sistema. O uso generativo de imagem e voz também deverá passar por consentimento prévio e seguir o Código Civil.

Direitos dos usuários

O projeto ainda desenha direitos aos usuários de sistemas de IA, que incluem o direito a ser informado previamente que está interagindo com uma Inteligência Artificial, o direito a não ser discriminado e ao uso de linguagem simples e clara. As empresas também devem prover explicações sobre as decisões tomadas pela máquina, além de permitir a revisão destas decisões por seres humanos quando houver risco associado.

gq/as (Agência Senado, Agência Brasil, DW, ots)