Inteligência artificial: projeto para regularizar IA no Brasil é aprovado pelo Senado

O Marco Legal que prevê a regulamentação do uso da inteligência artificial no Brasil foi aprovado pelo Senado na terça-feira (10), em uma votação simbólica. Agora, o projeto vai para a análise da Câmara dos Deputados.

Plenário do Senado para aprovar regulamentação da inteligência artificial

Senado aprovou projeto para regularizar IA – Foto: Reprodução/ND

Se aprovado, os agentes de inteligência artificial que cometerem infrações poderão ser punidos com sanções administrativas, como advertências, multas, publicização da infração, suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial e proibição de tratamento de bases de dados.

Além disso, as autoridades também poderão investigar os sistemas de IA de alto risco, em casos de suspeita de violação aos princípios da lei.

O que diz o projeto para regularizar a inteligência artificial?

Para poder fiscalizar e supervisionar os sistemas, o projeto designa a criação do SIA (Sistema Nacional de Regulação e Governança de Inteligência Artificial), a ser coordenada pela ANPD (Autoridade Nacional de Proteção de Dados).

No Senado, foi aprovada uma alteração no texto do projeto que dizia que “fica estabelecido o Sistema Nacional de Regulação e Governança de Inteligência Artificial”. Com a mudança, o texto passa a dizer que “o Poder Executivo fica autorizado a estabelecer”, o SIA.

Além da ANPD, vão compor o SIA autoridades setoriais, o CRIA (Conselho Permanente de Cooperação Regulatória de Inteligência Artificial) e o CECIA (Comitê de Especialistas e Cientistas de Inteligência Artificial).

O SIA ficará responsável por regulamentar a classificar uma lista dos sistemas de IA de alto risco e identificar novas hipóteses de aplicação da tecnologia.

Plenário do Senado

Agora, projeto vai para a Câmara – Foto: Reprodução/ND

Quais são as inteligências artificiais de alto risco?

O projeto considera IA de “alto risco” aqueles que podem causar danos às pessoas ou à sociedade, como os de controle de trânsito, de redes de abastecimento de água e eletricidade.

Outros exemplos são aqueles aplicados na educação e formação profissionais para determinar acesso à instituição de ensino ou de monitoramento de estudantes, além dos sistemas usados para recrutamento de trabalhadores ou para promoções no trabalho.

Assim como os sistemas de IA na área da saúde, como para auxiliar no diagnóstico e procedimentos médicos, e para o desenvolvimento de veículos autônomos em espaços públicos.

No entanto, as autoridades deverão criar uma base de dados sobre quais são as IA de alto risco, com documentos das avaliações de impacto, e deixar acessível ao público.

Além disso, o órgão vai atuar na representação do Brasil perante organismos internacionais de inteligência artificial, estabelecer normas sobre informações a serem publicizadas em relação à utilização dos sistemas, instituir regras para a comunicação de incidentes graves, receber denúncias e elaborar relatórios.

Fiscalização da inteligência artificial de alto risco

Homem usando IA

IA de alto risco deverá ser fiscalizada – Foto: Reprodução/ND

Os agentes de IA terão a obrigação de comunicar às autoridades, dentro de um prazo específico, a ocorrência de incidentes graves de segurança. Isso inclui situações em que haja risco à vida, à integridade física, ao funcionamento de infraestruturas críticas, danos à propriedade, ao meio ambiente ou violações a direitos fundamentais.

Quando o poder público desenvolver, contratar ou adotar sistemas de IA com alto risco, deverá seguir uma série de regras para garantir maior transparência e segurança.

Isso envolve a publicação de avaliações preliminares dos sistemas, a definição de padrões mínimos de transparência e a garantia de que os cidadãos tenham o direito de entender as decisões tomadas pela IA, além de poderem pedir uma revisão humana quando essas decisões afetarem seus direitos de forma significativa.

Conforme o texto, fica proibido o desenvolvimento, implementação ou uso de sistemas de IA que possam causar danos excessivos à saúde, segurança ou aos direitos fundamentais das pessoas, como em sistemas de armas autônomas ou na criação de material de abuso sexual infantil.

Além disso, qualquer IA que utilize conteúdos protegidos por direitos autorais deve remunerar os titulares desses direitos. Também ficará determinado que, ao utilizar imagens, áudio, voz ou vídeos que identifiquem pessoas, os sistemas de IA devem respeitar os direitos da personalidade, conforme estabelecido pelo Código Civil.

Adicionar aos favoritos o Link permanente.