Inteligencia Artificial para Advogados | 28/05/2024
Inteligencia Artificial para Advogados | 28/05/2024

Marco Legal da Inteligência Artificial: Como são as Regulamentações?

Marco Legal da Inteligência Artificial

A inteligência artificial (IA) está rapidamente transformando diversos setores da sociedade, desde a saúde até a justiça. No entanto, com essa rápida evolução, surge a necessidade de um arcabouço jurídico que regule o uso dessas tecnologias de maneira eficaz e responsável. Neste artigo, exploramos o marco legal da IA no Brasil, abordando tanto a regulamentação estatal quanto a autorregulação das empresas que trabalham com essa tecnologia.

IA no Brasil

O texto revisado do Marco Legal da Inteligência Artificial (IA) inclui tanto a regulamentação estatal quanto a autorregulação para empresas que trabalham com a tecnologia. A Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA), que está analisando o Projeto de Lei 2338/2023, teve seu prazo de conclusão estendido para 55 dias a partir de 23 de maio.

Processo de Aprovação

O substitutivo, apresentado em abril, ainda deve passar por mudanças. O texto está aberto a contribuições até 22 de maio e já recebeu sugestões da Autoridade Nacional de Proteção de Dados (ANPD) e do Ministério Público Federal. O relator, Eduardo Gomes (PL-TO), deve apresentar o relatório final em 5 de junho, com a votação na comissão marcada para 12 de junho e no plenário para 18 de junho.

Comparações Internacionais

Apesar de compartilhar um sistema de risco semelhante ao do AI Act da União Europeia, a regulamentação descrita no projeto também possui semelhanças com o AI Executive dos Estados Unidos, adotando um sistema estatal que inclui entidades autorreguladoras.

Segundo Solano de Camargo, presidente da Comissão de Privacidade, Proteção de Dados e IA da OAB/SP e sócio da LBCA, embora um modelo mais descentralizado e multissetorial, como o dos EUA, tenha prevalecido, ainda existe um nível de burocracia que impõe uma série de requisitos de conformidade que startups de desenvolvimento de IA não estão equipadas para cumprir.

O Sistema Nacional de Regulação e Governança da IA (SIA)

Estrutura e Competências

O nome dado a este sistema é Sistema Nacional de Regulação e Governança da Inteligência Artificial (SIA). Ainda não foi determinada qual autoridade centralizada será responsável pela sua supervisão, decisão que caberá ao Executivo. Outros membros do SIA incluem agências setoriais estaduais, o Conselho Administrativo de Defesa Econômica (CADE), além de órgãos autorreguladores e entidades de certificação acreditadas.

Segundo Karin Klempp, sócia do escritório Cascione Advogados, embora ainda não haja outros tipos de representantes, isso pode ser ajustado. “Uma maneira é convidar pessoas recomendadas por associações ou organizações profissionais para participar de reuniões abertas ao público”, afirma. “Podemos seguir o exemplo da ANPD, onde há um conselho diretor e um conselho consultivo, com a participação da sociedade civil.”

De acordo com o substitutivo, o objetivo do sistema é “aperfeiçoar e fortalecer as capacidades regulatórias, sancionadoras e normativas das agências e órgãos reguladores setoriais em harmonia com a correspondente autoridade geral competente que coordena o SIA”. Em caso de divergências entre os membros do SIA, “a Câmara de Mediação e Conciliação da Administração Pública Federal será responsável pela resolução”.

Medidas de Governança e Riscos

O projeto define as medidas de governança que devem ser aplicadas aos sistemas de IA de alto risco, embora não forneça detalhes específicos, que serão discutidos pelo SIA na fase de regulamentação. Por exemplo, as descrições das ações de governança a serem tomadas, como “medidas […] para a mitigação e prevenção de potenciais vieses discriminatórios” e “medidas de conscientização, capacitação e treinamento de funcionários e outras pessoas envolvidas na operação e uso de sistemas de IA em nome da empresa”, deixam margem para discussões sem especificar ações concretas a serem adotadas pelas empresas.

Regulação por Profissionais da Área

Segundo Jose Mauro Decoussau Machado, sócio do Pinheiro Neto Advogados, a possibilidade de regulação por profissionais da área é uma boa iniciativa. No entanto, com um projeto tão extenso e meticuloso, há pouco espaço para isso. Esse aspecto de regular posteriormente, definindo hipóteses mais tarde, é tipicamente brasileiro, pois tenta regular o que não está claro. Vale a pena fazer isso?

A Autoridade Competente

Entre os candidatos a assumir o papel de autoridade competente estão a Autoridade Nacional de Proteção de Dados (ANPD) e a Agência Nacional de Telecomunicações (Anatel). A entidade que assumir esse papel será responsável por “incentivar a adoção de boas práticas, incluindo códigos de conduta, no desenvolvimento e uso de sistemas de inteligência artificial”.

Essa entidade também terá a autoridade para “celebrar acordos com agentes de inteligência artificial a qualquer momento para resolver irregularidades, incertezas jurídicas ou situações contenciosas no âmbito dos processos administrativos”.

Representação Internacional

Como representante internacional do Brasil em questões relacionadas à IA, a autoridade terá a capacidade de incentivar a colaboração entre países. Além disso, caberá a este órgão credenciar “instituições que cumpram os critérios estabelecidos em regulamentação, sujeitos a consulta pública, para obter acesso a dados para fins de auditoria”.

A autoridade também será responsável por ordenar a execução de auditorias externas, além de conduzir, quando necessário, auditorias internas em sistemas de inteligência artificial para verificar a conformidade com esta Lei.

Penalidades

A autoridade competente também imporá penalidades às empresas de tecnologia em caso de violações. Essas penalidades podem variar de advertência a multa, “limitada em total a R$ 50 milhões de reais por infração, e no caso de pessoas jurídicas de direito privado, até 2% (dois por cento) de seu faturamento”.

Sanções Possíveis

As sanções possíveis para infrações podem envolver a publicidade da infração e a proibição ou restrição de participação em um regime de sandbox regulatório (um espaço legalmente designado para experimentação tecnológica) por até cinco anos. Entre as penalidades potenciais também estão a “suspensão parcial ou total, temporária ou permanente, do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial” e a proibição de utilização de certos bancos de dados.

A autoridade competente estabelecerá o procedimento para investigar a violação com base em consultas públicas. “As sanções serão aplicadas após um processo administrativo que permita a oportunidade de ampla defesa, de forma gradual, isolada ou cumulativa”, de acordo com o substitutivo.

A gravidade e a natureza das infrações, bem como a boa-fé e cooperação do infrator e a implementação de mecanismos de mitigação de riscos, estão entre os critérios considerados para o nível de sanção. Espera-se que esses critérios sejam objetivamente descritos após a regulamentação.

Conheça a Inteligência Artificial para Advogados

Autorregulação

Instituições Autorreguladoras

O conceito de autorregulação é previsto por meio de associações, e caberá à autoridade competente estabelecer requisitos vinculantes para a instituição de uma entidade autorreguladora, em colaboração com outras agências e órgãos reguladores do SIA.

Segundo o substitutivo, as instituições autorreguladoras têm a capacidade de definir critérios técnicos para sistemas de inteligência artificial aplicados e “definição contextual de estruturas de governança”. No entanto, “a autoridade competente poderá suspender normas autorregulatórias […] quanto ao uso de inteligência artificial de alto risco”.

As empresas de tecnologia têm utilizado várias ferramentas para mitigar os riscos de conformidade, incluindo a resolução da Organização das Nações Unidas (ONU) sobre Inteligência Artificial e as orientações da Organização para a Cooperação e Desenvolvimento Econômico (OCDE) relacionadas ao assunto.

Segundo Karin Klempp, a autorregulação é válida e já está acontecendo para empresas preocupadas com os princípios ESG (ambiental, social e governança, em inglês). No entanto, a regulamentação estatal é necessária para definir melhor os agentes envolvidos nas atividades de IA. Por exemplo, deve-se fazer uma distinção entre o desenvolvedor de tecnologia e o aplicador, conhecido como deployer. “O conceito de deployer ainda é muito vago na lei. Se olharmos de perto, usuários individuais poderiam ser considerados ‘deployers'”, explica a advogada, que acredita que isso poderia levar a penalidades desproporcionalmente pesadas para os usuários.

Marco Legal da Inteligência Artificial

A regulamentação da inteligência artificial é um passo crucial para garantir que essa tecnologia seja desenvolvida e utilizada de forma ética e responsável. O Brasil está caminhando nessa direção, com um marco legal que busca equilibrar a regulamentação estatal com a autorregulação das empresas. Ainda há muitos desafios e ajustes a serem feitos, mas a criação do Sistema Nacional de Regulação e Governança da Inteligência Artificial (SIA) é um avanço significativo nesse processo.

Leia também

Inteligencia Artificial para Advogados | 23/05/2024

Processos Seletivos por IA: A Revolução Tecnológica no Recrutamento

Inteligencia Artificial para Advogados | 07/02/2024

CEOs do Setor Agro Preveem Revolução com IA Generativa

Inteligencia Artificial para Advogados | 21/07/2024

OAB-SP Promove Curso de Inteligência Artificial Voltado para o Direito