Marco da IA é aprovado por comissão e segue para o Senado; entenda o PL ponto a ponto
Objetivo do projeto é criar regras para desenvolvimento no Brasil, estabelecendo fundamentos de segurança e de crescimento para a tecnologia
O texto definitivo do projeto de lei 2.338/2023, mais conhecido como Marco da Inteligência Artificial (IA) foi aprovado nesta quinta-feira (5) em uma sessão no Senado que marcou o avanço da tramitação do que pode se tornar uma das primeiras leis no mundo a regular a IA. A votação pela aprovação do texto foi simbólica e unânime. O pleito no Senado está marcado para a próxima terça-feira (10).
O PL tem como objetivo criar regras para o desenvolvimento da IA no Brasil para o setor público e privado, estabelecendo, principalmente, fundamentos de segurança e de crescimento para a tecnologia no país.
Na sessão desta terça, o senador Carlos Viana (Podemos-MG), presidente da Comissão Temporária Interna sobre Inteligência Artificial (CTIA), afirmou que, desde a última leitura, o texto recebeu mais de 40 emendas e que, depois de analisá-las, a comissão julgou que o texto estava pronto para a votação.
Na semana passada, o texto foi apresentado com mudanças, após um período de análise da comissão e foi considerado uma versão branda do projeto inicial – com a suavização de diversos tópicos que versam sobre a responsabilidade das empresas e a classificação de risco das IAs.
Agora, o texto deve ir para votação em plenário no Senado e, se aprovada, passa para a Câmara dos Deputados para mais um pleito. Apenas se for aprovada nas duas casas o projeto de lei pode seguir para sanção presidencial.
De acordo com o próprio Senado, o objetivo do PL é a “definição de princípios éticos para IA, a criação de uma Política Nacional de Inteligência Artificial, a regulação do uso de IA em áreas como publicidade e justiça, além de mecanismos de governança e responsabilização”. Com isso, regras de desenvolvimento e orientações para sua construção são abordadas no documento.
O Marco da IA começou a ser discutido ainda em 2022, mas apenas em 2023 foi criada uma comissão para reunir informações, realizar audiências públicas e consultar especialistas para construir o texto da lei.
Para quem são as regras?
A regulação se aplica para as IAs públicas e privadas que tenham uso comercial e de larga escala no país – ou seja, além dos modelos desenvolvidos pela iniciativa pública, startups e gigantes de tecnologia como Meta, Amazon, Microsoft, OpenAI e outras terão que se adaptar ao contexto da lei, caso aprovada.
O texto ainda afirma que, independente do tipo de sistema, a regulação não se aplica para o desenvolvimento de IAs que sejam de uso pessoal e não comercial ou de uso em alguns setores governamentais, como defesa nacional.
Sistemas de IA
Fundamental para entender o PL, os Sistemas de IA, de acordo com o texto, são todos os algoritmos, modelos ou softwares que tenham autonomia e conseguem gerar previsão, conteúdo ou recomendação a partir de algum conjunto de dados. A definição é proposta separadamente dos sistemas de IA de propósito geral e de sistemas de IA generativa.
Para a lei, os sistemas de IA de propósito geral são modelos treinados com dados que conseguem realizar diversas tarefas, “incluindo aquelas para as quais não foram especificamente desenvolvidos”. Já os sistemas de IA generativa são aqueles que podem modificar algum conteúdo com informações criadas pelo próprio modelo, como ChatGPT e Meta AI, por exemplo.
Classificação de risco
Um dos principais pontos do Marco da IA é a classificação de risco dos produtos construídos com a tecnologia. Segundo o texto, fica proibido o desenvolvimento de IAs que possam “comprometer a segurança, direitos fundamentais ou a integridade física e moral das pessoas de forma significativa e irreparável”, que são chamadas de Risco Excessivo. Deepfakes e IAs que podem manipular o sistema eleitoral, como bots de disseminação de conteúdos falsos entram nessa categoria, além de armas autônomas, como robôs de guerra.
O documento também fala que as IAs de Risco Alto, que podem ter impacto nos direitos fundamentais dos indivíduos, como sistemas de seleção de candidatos e biometria via IA, devem ser submetidas a uma maior supervisão e uma regulamentação rigorosa antes de serem liberadas.
Já as IAs consideradas de Risco Geral ou Baixo Risco podem ser desenvolvidas com menos burocracia, por não apresentarem riscos fundamentais – de acordo com texto, é o caso de IAs de tradução, correção ortográfica ou de filtro de mensagens, por exemplo.
Estão também na classificação de alto risco algoritmos de recomendação de redes sociais, reflexo do debate de moderação de conteúdo online que domina os três poderes nos últimos anos. Embora o PL não cite explicitamente as plataformas, ele afirma que são classificados como alto risco IAs de “curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação de internet, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.
Os casos, porém, serão analisados a partir dos riscos que podem causar à liberdade de expressão e ao acesso à informação, por exemplo, como manipulação do debate público e influência no processo eleitoral.
Direitos dos cidadãos
Todas as pessoas afetadas pelas IAs precisam ter alguns direitos, de acordo com o PL. Um deles é ter o conhecimento de que os seus dados estão sendo utilizados para treinar ou alimentar modelos da tecnologia, além de ser possível remover ou optar por não ter suas informações utilizadas – a norma segue a mesma regra que a Lei Geral de Proteção de Dados (LGPD) já possui no Brasil.
Além disso, a lei prevê que pessoas que sejam afetadas negativamente, independente de seu grau de risco, podem recorrer à Justiça para obter explicações sobre a ação da IA. O texto não deixa explícito quais seriam as reparações judiciais de processos ou se algum tipo de multa ou outra punição seriam aplicadas nos casos de prejuízos pessoais.
Em alguns casos, porém, as empresas de tecnologia argumentam que nem sempre é possível fornecer uma explicação para decisões de um modelo de IA. Esses sistemas, chamados de black box (caixa preta, em tradução literal), possuem mecanismos que não são totalmente transparentes nem mesmo para os programadores, por conta da quantidade de processamento gerada a partir dos dados de treinamento do modelo – é como se a IA fizesse tantos cruzamentos de informações que, em algum momento no caminho, nem ela soubesse dizer exatamente como chegou a determinada conclusão.
Fiscalização
Para a fiscalização, o texto determina dois órgãos responsáveis pela supervisão e triagem dessas tecnologias: o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) e a Autoridade Nacional de Proteção de Dados (ANPD).
O SIA tem como objetivo “realizar auditorias internas de sistemas de inteligência artificial quando necessária para a aferição de conformidade com esta Lei, garantido o tratamento confidencial das informações em atenção aos segredos comercial e industrial”. É ele quem pode determinar se uma IA está ou não em conformidade com a lei.
Para sistemas que infringirem a legislação, uma multa que pode chegar a R$ 50 milhões de reais a depender do caso, além de perder o direito de testar a tecnologia por até cinco anos – ou seja, sem a possibilidade de submeter aos testes, a IA se torna ilegal no País.
Também é de responsabilidade da SIA promover os sandboxes regulatórios para testes das IAs – e pequenas empresas e startups devem ser priorizadas no processo.
IA generativa
O novo texto também aborda as IAs generativas, ainda que de forma reduzida. De acordo com o PL, todos os produtos gerados por esses sistemas precisam ter uma identificação, como uma marca d’água, que deixe claro a procedência do material. As empresas que possuem esse tipo de produto também terão que publicar quais dados foram utilizados para treinar o modelo de IA.
Ainda, as IAs generativas e de propósito geral terão que apresentar, regularmente, documentos técnicos sobre o funcionamento, propósito e uso da IA por 10 anos.
O impacto algorítmico também foi incluído nos casos em que a supervisão humana é apenas recomendada. Segundo o texto, a avaliação nessa situação é obrigatória apenas para as IAs consideradas de alto risco.
Incentivo, fomento e capacitação
O texto fala, ainda, que é de responsabilidade da administração pública (governo federal, estadual e municipal) criar programas de educação em IA, incluindo o letramento digital para que os cidadãos possam saber o que é a tecnologia e como usá-la, e disciplinas no ensino público que ensinem sobre o impacto ambiental e social da IA.
Programas de capacitação e formação de profissionais na área também estão previstos no Projeto de Lei, em especial nos níveis de ensino técnico e superior, além de citar que os órgãos públicos também devem prestar apoio a trabalhadores que foram impactados negativamente pela tecnologia.
O documento não especifica, porém, como ou quais devem ser os programas adotados pelo governo. O texto também não especifica a partir de que período ou quanto tempo os órgãos teriam para fazer as medidas serem adotadas.