República Democrática do Habblet
Gostaria de reagir a esta mensagem? Crie uma conta em poucos cliques ou inicie sessão para continuar.

Ir para baixo
Sabrina.Grey
Sabrina.Grey
Deputado(a) Federal
Deputado(a) Federal

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL UU7fQQg

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL PtGywSS

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL 5Iqeoxn




Mensagens : 377
Data de inscrição : 01/09/2021
Buscando informações do e-título...

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL Empty [PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL

Qui 06 Jul 2023, 19:58

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL V2jron10
CONGRESSO NACIONAL DO HABBLET
CÂMARA DOS DEPUTADOS FEDERAIS
PROJETO DE LEI N° 058/2023
DEPUTADA FEDERAL SABRINA GREY - MDH
DEPUTADO FEDERAL HARRY RAMSEY - PL
---------------------------------------------------------------------------------------------------------------------------------------------------------


EMENTA: DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL.


O Congresso Nacional do Habblet, DECRETA:

CAPÍTULO I
DISPOSIÇÕES PRELIMINARES

Art. 1º Esta Lei estabelece normas gerais de caráter nacional para o desenvolvimento, implementação e uso responsável de sistemas de inteligência artificial (IA) no Habblet, com o objetivo de proteger os direitos fundamentais e garantir a implementação de sistemas seguros e confiáveis, em benefício da pessoa humana, do regime democrático e do desenvolvimento científico e tecnológico.

Art. 2º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial no Habblet têm como fundamentos:
I – a centralidade da pessoa humana;
II – o respeito aos direitos humanos e aos valores democráticos;
III – o livre desenvolvimento da personalidade;
IV – a proteção ao meio ambiente e o desenvolvimento sustentável;
V – a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas;
VI – o desenvolvimento tecnológico e a inovação;
VII – a livre iniciativa, a livre concorrência e a defesa do consumidor;
VIII – a privacidade, a proteção de dados e a autodeterminação informativa;
IX – a promoção da pesquisa e do desenvolvimento com a finalidade de estimular a inovação nos setores produtivos e no poder público; e
X – o acesso à informação e à educação, e a conscientização sobre os sistemas de inteligência artificial e suas aplicações.

Art. 3º O desenvolvimento, a implementação e o uso de sistemas de inteligência artificial observarão a boa-fé e os seguintes princípios:
I – crescimento inclusivo, desenvolvimento sustentável e bem-estar;
II – autodeterminação e liberdade de decisão e de escolha;
III – participação humana no ciclo da inteligência artificial e supervisão humana efetiva;
IV – não discriminação;
V – justiça, equidade e inclusão;
VI – transparência, explicabilidade, inteligibilidade e auditabilidade;
VII – confiabilidade e robustez dos sistemas de inteligência artificial e segurança da informação;
VIII – devido processo legal, contestabilidade e contraditório;
IX – rastreabilidade das decisões durante o ciclo de vida de sistemas de inteligência artificial como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou jurídica;
X – prestação de contas, responsabilização e reparação integral de danos;
XI – prevenção, precaução e mitigação de riscos sistêmicos derivados de usos intencionais ou não intencionais e de efeitos não previstos de sistemas de inteligência artificial; e
XII – não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial.

Art. 4º Para as finalidades desta Lei, adotam-se as seguintes definições:
I – sistema de inteligência artificial: sistema computacional, com graus diferentes de autonomia, desenhado para inferir como atingir um dado conjunto de objetivos, utilizando abordagens baseadas em aprendizagem de máquina e/ou lógica e representação do conhecimento, por meio de dados de entrada provenientes de máquinas ou humanos, com o objetivo de produzir previsões, recomendações ou decisões que possam influenciar o ambiente virtual ou real;
II – fornecedor de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que desenvolva um sistema de inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome ou marca, a título oneroso ou gratuito;
III – operador de sistema de inteligência artificial: pessoa natural ou jurídica, de natureza pública ou privada, que empregue ou utilize, em seu nome ou benefício, sistema de inteligência artificial, salvo se o referido sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional;
IV – agentes de inteligência artificial: fornecedores e operadores de sistemas de inteligência artificial;
V – autoridade competente: órgão ou entidade da Administração Pública Federal responsável por zelar, implementar e fiscalizar o cumprimento desta Lei em todo o território nacional;
VI – discriminação: qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas;
VII – discriminação indireta: discriminação que ocorre quando normativa, prática ou critério aparentemente neutro tem a capacidade de acarretar desvantagem para pessoas pertencentes a grupo específico, ou as coloquem em desvantagem, a menos que essa normativa, prática ou critério tenha algum objetivo ou justificativa razoável e legítima à luz do direito à igualdade e dos demais direitos fundamentais;
VIII – mineração de textos e dados: processo de extração e análise de grandes quantidades de dados ou de trechos parciais ou integrais de conteúdo textual, a partir dos quais são extraídos padrões e correlações que gerarão informações relevantes para o desenvolvimento ou utilização de sistemas de inteligência artificial.

CAPÍTULO II
DOS DIREITOS

SEÇÃO I
DISPOSIÇÕES GERAIS

Art. 5º Pessoas afetadas por sistemas de inteligência artificial têm os seguintes direitos, a serem exercidos na forma e nas condições descritas neste Capítulo:
I – direito à informação prévia quanto às suas interações com sistemas de inteligência artificial;
II – direito à explicação sobre a decisão, recomendação ou previsão tomada por sistemas de inteligência artificial;
III – direito de contestar decisões ou previsões de sistemas de inteligência artificial que produzam efeitos jurídicos ou que impactem de maneira significativa os interesses do afetado;
IV – direito à determinação e à participação humana em decisões de sistemas de inteligência artificial, levando-se em conta o contexto e o estado da arte do desenvolvimento tecnológico;
V – direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos; e
VI – direito à privacidade e à proteção de dados pessoais, nos termos da legislação pertinente.

Parágrafo único. Os agentes de inteligência artificial informarão, de forma clara e facilmente acessível, os procedimentos necessários para o exercício dos direitos descritos no caput.

Art. 6º A defesa dos interesses e dos direitos previstos nesta Lei poderá ser exercida perante os órgãos administrativos competentes, bem como em juízo, individual ou coletivamente, na forma do disposto na legislação pertinente acerca dos instrumentos de tutela individual, coletiva e difusa.

SEÇÃO II
DOS DIREITOS ASSOCIADOS A INFORMAÇÃO E COMPREENSÃO DAS DECISÕES TOMADAS POR SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

Art. 7º Pessoas afetadas por sistemas de inteligência artificial têm o direito de receber, previamente à contratação ou utilização do sistema, informações claras e adequadas quanto aos seguintes aspectos:
I – caráter automatizado da interação e da decisão em processos ou produtos que afetem a pessoa;
II – descrição geral do sistema, tipos de decisões, recomendações ou previsões que se destina a fazer e consequências de sua utilização para a pessoa;
III – identificação dos operadores do sistema de inteligência artificial e medidas de governança adotadas no desenvolvimento e emprego do sistema pela organização;
IV – papel do sistema de inteligência artificial e dos humanos envolvidos no processo de tomada de decisão, previsão ou recomendação;
V – categorias de dados pessoais utilizados no contexto do funcionamento do sistema de inteligência artificial;
VI – medidas de segurança, de não-discriminação e de confiabilidade adotadas, incluindo acurácia, precisão e cobertura; e
VII – outras informações definidas em regulamento.
§ 1º Sem prejuízo do fornecimento de informações de maneira completa em meio físico ou digital aberto ao público, a informação referida no inciso I do caput deste artigo será também fornecida, quando couber, com o uso de ícones ou símbolos facilmente reconhecíveis.
§ 2º Pessoas expostas a sistemas de reconhecimento de emoções ou a sistemas de categorização biométrica serão informadas sobre a utilização e o funcionamento do sistema no ambiente em que ocorrer a exposição.
§ 3º Os sistemas de inteligência artificial que se destinem a grupos vulneráveis, tais como crianças, adolescentes, idosos e pessoas com deficiência, serão desenvolvidos de tal modo que essas pessoas consigam entender seu funcionamento e seus direitos em face dos agentes de inteligência artificial.

Art. 8º A pessoa afetada por sistema de inteligência artificial poderá solicitar explicação sobre a decisão, previsão ou recomendação, com informações a respeito dos critérios e dos procedimentos utilizados, assim como sobre os principais fatores que afetam tal previsão ou decisão específica, incluindo informações sobre:
I – a racionalidade e a lógica do sistema, o significado e as consequências previstas de tal decisão para a pessoa afetada;
II – o grau e o nível de contribuição do sistema de inteligência artificial para a tomada de decisões;
III – os dados processados e a sua fonte, os critérios para a tomada de decisão e, quando apropriado, a sua ponderação, aplicados à situação da pessoa afetada;
IV – os mecanismos por meio dos quais a pessoa pode contestar a decisão; e
V – a possibilidade de solicitar intervenção humana, nos termos desta Lei.
Parágrafo único. As informações mencionadas no caput serão fornecidas por procedimento gratuito e facilitado, em linguagem que permita que a pessoa compreenda o resultado da decisão ou previsão em questão, no prazo de até quinze dias a contar da solicitação, permitida a prorrogação, uma vez, por igual período, a depender da complexidade do caso.

SEÇÃO III
DO DIREITO DE CONTESTAR DECISÕES E DE SOLICITAR INTERVENÇÃO HUMANA

Art. 9º A pessoa afetada por sistema de inteligência artificial terá o direito de contestar e de solicitar a revisão de decisões, recomendações ou previsões geradas por tal sistema que produzam efeitos jurídicos relevantes ou que impactem de maneira significativa seus interesses.
§ 1º O direito à contestação previsto no caput deste artigo abrange também decisões, recomendações ou previsões amparadas em inferências discriminatórias, irrazoáveis ou que atentem contra a boa-fé objetiva, assim compreendidas as inferências que:
I – sejam fundadas em dados inadequados ou abusivos para as finalidades do tratamento;
II – sejam baseadas em métodos imprecisos ou estatisticamente não confiáveis; ou
III – não considerem de forma adequada a individualidade e as características pessoais dos indivíduos.

Art. 10. Quando a decisão, previsão ou recomendação de sistema de inteligência artificial produzir efeitos jurídicos relevantes ou que impactem de maneira significativa os interesses da pessoa, inclusive por meio da geração de perfis e da realização de inferências, esta poderá solicitar a intervenção ou revisão humana.
Parágrafo único. A intervenção ou revisão humana não será exigida caso a sua implementação seja comprovadamente impossível, hipótese na qual o responsável pela operação do sistema de inteligência artificial implementará medidas alternativas eficazes, a fim de assegurar a reanálise da decisão contestada, levando em consideração os argumentos suscitados pela pessoa afetada, assim como a reparação de eventuais danos gerados.

Art. 11. Em cenários nos quais as decisões, previsões ou recomendações geradas por sistemas de inteligência artificial tenham um impacto irreversível ou de difícil reversão ou envolvam decisões que possam gerar riscos à vida ou à integridade física de indivíduos, haverá envolvimento humano significativo no processo decisório e determinação humana final.

SEÇÃO IV
DO DIREITO À NÃO-DISCRIMINAÇÃO E À CORREÇÃO DE VIESES DISCRIMINATÓRIOS DIRETOS, INDIRETOS, ILEGAIS OU ABUSIVOS

Art. 12. As pessoas afetadas por decisões, previsões ou recomendações de sistemas de inteligência artificial têm direito a tratamento justo e isonômico, sendo vedadas a implementação e o uso de sistemas de inteligência artificial que possam acarretar discriminação direta, indireta, ilegal ou abusiva, inclusive:
I – em decorrência do uso de dados pessoais sensíveis ou de impactos desproporcionais em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião ou opiniões políticas; ou
II – em função do estabelecimento de desvantagens ou agravamento da situação de vulnerabilidade de pessoas pertencentes a um grupo específico, ainda que se utilizem critérios aparentemente neutros.
Parágrafo único. A vedação prevista no caput não impede a adoção de critérios de diferenciação entre indivíduos ou grupos quando tal diferenciação se dê em função de objetivos ou justificativas demonstradas, razoáveis e legítimas à luz do direito à igualdade e dos demais direitos fundamentais.

CAPÍTULO III
DA CATEGORIZAÇÃO DOS RISCOS

SEÇÃO I
AVALIAÇÃO PRELIMINAR

Art. 13. Previamente a sua colocação no mercado ou utilização em serviço, todo sistema de inteligência artificial passará por avaliação preliminar realizada pelo fornecedor para classificação de seu grau de risco, cujo registro considerará os critérios previstos neste capítulo.
§ 1º Os fornecedores de sistemas de inteligência artificial de propósito geral incluirão em sua avaliação preliminar as finalidades ou aplicações indicadas, nos termos do art. 17 desta lei.
§ 2º Haverá registro e documentação da avaliação preliminar realizada pelo fornecedor para fins de responsabilização e prestação de contas no caso de o sistema de inteligência artificial não ser classificado como de risco alto.
§ 3º A autoridade competente poderá determinar a reclassificação do sistema de inteligência artificial, mediante notificação prévia, bem como determinar a realização de avaliação de impacto algorítmico para instrução da investigação em curso.
§ 4º Se o resultado da reclassificação identificar o sistema de inteligência artificial como de alto risco, a realização de avaliação de impacto algorítmico e a adoção das demais medidas de governança previstas no Capítulo IV serão obrigatórias, sem prejuízo de eventuais penalidades em caso de avaliação preliminar fraudulenta, incompleta ou inverídica.

SEÇÃO II
RISCO EXCESSIVO


Art. 14. São vedadas a implementação e o uso de sistemas de inteligência artificial:
I – que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir a pessoa natural a se comportar de forma prejudicial ou perigosa à sua saúde ou segurança ou contra os fundamentos desta Lei;
II – que explorem quaisquer vulnerabilidades de grupos específicos de pessoas naturais, tais como as associadas a sua idade ou deficiência física ou mental, de modo a induzi-las a se comportar de forma prejudicial a sua saúde ou segurança ou contra os fundamentos desta Lei;
III – pelo poder público, para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional.

Art. 15. No âmbito de atividades de segurança pública, somente é permitido o uso de sistemas de identificação biométrica à distância, de forma contínua em espaços acessíveis ao público, quando houver previsão em lei federal específica e autorização judicial em conexão com a atividade de persecução penal individualizada, nos seguintes casos:
I – persecução de crimes passíveis de pena máxima de reclusão superior a uma semana;
II – busca de vítimas de crimes ou pessoas desaparecidas; ou
III – crime em flagrante.
Parágrafo único. A lei a que se refere o caput preverá medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal e o controle judicial, bem como os princípios e direitos previstos nesta Lei, especialmente a garantia contra a discriminação e a necessidade de revisão da inferência algorítmica pelo agente público responsável, antes da tomada de qualquer ação em face da pessoa identificada.

Art. 16. Caberá à autoridade competente regulamentar os sistemas de inteligência artificial de risco excessivo.

SEÇÃO III
ALTO RISCO

Art. 17. São considerados sistemas de inteligência artificial de alto risco aqueles utilizados para as seguintes finalidades:
I – aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade;
II – educação e formação profissional, incluindo sistemas de determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudantes;
III – recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas afetadas por tais aplicações de inteligência artificial nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria;
IV – avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços públicos de assistência e de seguridade;
V – avaliação da capacidade de endividamento das pessoas naturais ou estabelecimento de sua classificação de crédito;
VI – envio ou estabelecimento de prioridades para serviços de resposta a emergências, incluindo bombeiros e assistência médica;
VII – administração da justiça, incluindo sistemas que auxiliem autoridades judiciárias na investigação dos fatos e na aplicação da lei;
VIII – veículos autônomos, quando seu uso puder gerar riscos à integridade física de pessoas;
IX – aplicações na área da saúde, inclusive as destinadas a auxiliar diagnósticos e procedimentos médicos;
X – sistemas biométricos de identificação;
XI – Investigação criminal e segurança pública, em especial para avaliações individuais de riscos pelas autoridades competentes, a fim de determinar o risco de uma pessoa cometer infrações ou de reincidir, ou o risco para potenciais vítimas de infrações penais ou para avaliar os traços de personalidade e as características ou o comportamento criminal passado de pessoas singulares ou grupos;
XII – estudo analítico de crimes relativos a pessoas naturais, permitindo às autoridades policiais pesquisar grandes conjuntos de dados complexos, relacionados ou não relacionados, disponíveis em diferentes fontes de dados ou em diferentes formatos de dados, no intuito de identificar padrões desconhecidos ou descobrir relações escondidas nos dados;
XIII – investigação por autoridades administrativas para avaliar a credibilidade dos elementos de prova no decurso da investigação ou repressão de infrações, para prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares; ou
XIV – gestão da migração e controle de fronteiras.

Art. 18. Caberá à autoridade competente atualizar a lista dos sistemas de inteligência artificial de risco excessivo ou de alto risco, identificando novas hipóteses, com base em, pelo menos, um dos seguintes critérios:
I – a implementação ser em larga escala, levando-se em consideração o número de pessoas afetadas e a extensão geográfica, bem como a sua duração e frequência;
II – o sistema puder impactar negativamente o exercício de direitos e liberdades ou a utilização de um serviço;
III – o sistema tiver alto potencial danoso de ordem material ou moral, bem como discriminatório;
IV – o sistema afetar pessoas de um grupo específico vulnerável;
V – serem os possíveis resultados prejudiciais do sistema de inteligência artificial irreversíveis ou de difícil reversão;
VI – um sistema de inteligência artificial similar ter causado anteriormente danos materiais ou morais;
VII – baixo grau de transparência, explicabilidade e auditabilidade do sistema de inteligência artificial, que dificulte o seu controle ou supervisão;
VIII – alto nível de identificabilidade dos titulares dos dados, incluindo o tratamento de dados genéticos e biométricos para efeitos de identificação única de uma pessoa singular, especialmente quando o tratamento inclui combinação, correspondência ou comparação de dados de várias fontes;
IX – quando existirem expectativas razoáveis do afetado quanto ao uso de seus dados pessoais no sistema de inteligência artificial, em especial a expectativa de confidencialidade, como no tratamento de dados sigilosos ou sensíveis.
Parágrafo único. A atualização da lista mencionada no caput pela autoridade competente será precedida de consulta ao órgão regulador setorial competente, se houver, assim como de consulta e de audiência públicas e de análise de impacto regulatório.

CAPÍTULO IV
DA GOVERNANÇA DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

SEÇÃO I
DISPOSIÇÕES GERAIS

Art. 19. Os agentes de inteligência artificial estabelecerão estruturas de governança e processos internos aptos a garantir a segurança dos sistemas e o atendimento dos direitos de pessoas afetadas, nos termos previstos no Capítulo II desta Lei e da legislação pertinente, que incluirão, pelo menos:
I – medidas de transparência quanto ao emprego de sistemas de inteligência artificial na interação com pessoas naturais, o que inclui o uso de interfaces ser humano-máquina adequadas e suficientemente claras e informativas;
II – transparência quanto às medidas de governança adotadas no desenvolvimento e emprego do sistema de inteligência artificial pela organização;
III – medidas de gestão de dados adequadas para a mitigação e prevenção de potenciais vieses discriminatórios;
IV – legitimação do tratamento de dados conforme a legislação de proteção de dados, inclusive por meio da adoção de medidas de privacidade desde a concepção e por padrão e da adoção de técnicas que minimizem o uso de dados pessoais;
V – adoção de parâmetros adequados de separação e organização dos dados para treinamento, teste e validação dos resultados do sistema; e
VI – adoção de medidas adequadas de segurança da informação desde a concepção até a operação do sistema.
§ 1º As medidas de governança dos sistemas de inteligência artificial são aplicáveis ao longo de todo o seu ciclo de vida, desde a concepção inicial até o encerramento de suas atividades e descontinuação.
§ 2º A documentação técnica de sistemas de inteligência artificial de alto risco será elaborada antes de sua disponibilização no mercado ou de seu uso para prestação de serviço e será mantida atualizada durante sua utilização.

SEÇÃO II
MEDIDAS DE GOVERNANÇA PARA SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE ALTO RISCO

Art. 20. Além das medidas indicadas no art. 19, os agentes de inteligência artificial que forneçam ou operem sistemas de alto risco adotarão as seguintes medidas de governança e processos internos:
I – documentação, no formato adequado ao processo de desenvolvimento e à tecnologia usada, a respeito do funcionamento do sistema e das decisões envolvidas em sua construção, implementação e uso, considerando todas as etapas relevantes no ciclo de vida do sistema, tais como estágio de design, de desenvolvimento, de avaliação, de operação e de descontinuação do sistema;
II – uso de ferramentas de registro automático da operação do sistema, de modo a permitir a avaliação de sua acurácia e robustez e a apurar potenciais discriminatórios, e implementação das medidas de mitigação de riscos adotadas, com especial atenção para efeitos adversos;
III – realização de testes para avaliação de níveis apropriados de confiabilidade, conforme o setor e o tipo de aplicação do sistema de inteligência artificial, incluindo testes de robustez, acurácia, precisão e cobertura;
IV – medidas de gestão de dados para mitigar e prevenir vieses discriminatórios, incluindo:
a) avaliação dos dados com medidas apropriadas de controle de vieses cognitivos humanos que possam afetar a coleta e organização dos dados e para evitar a geração de vieses por problemas na classificação, falhas ou falta de informação em relação a grupos afetados, falta de cobertura ou distorções em representatividade, conforme a aplicação pretendida, bem como medidas corretivas para evitar a incorporação de vieses sociais estruturais que possam ser perpetuados e ampliados pela tecnologia; e
b) composição de equipe inclusiva responsável pela concepção e desenvolvimento do sistema, orientada pela busca da diversidade.
V – adoção de medidas técnicas para viabilizar a explicabilidade dos resultados dos sistemas de inteligência artificial e de medidas para disponibilizar aos operadores e potenciais impactados informações gerais sobre o funcionamento do modelo de inteligência artificial empregado, explicitando a lógica e os critérios relevantes para a produção de resultados, bem como, mediante requisição do interessado, disponibilizar informações adequadas que permitam a interpretação dos resultados concretamente produzidos, respeitado o sigilo industrial e comercial.
Parágrafo único. A supervisão humana de sistemas de inteligência artificial de alto risco buscará prevenir ou minimizar os riscos para direitos e liberdades das pessoas que possam decorrer de seu uso normal ou de seu uso em condições de utilização indevida razoavelmente previsíveis, viabilizando que as pessoas responsáveis pela supervisão humana possam:
I – compreender as capacidades e limitações do sistema de inteligência artificial e controlar devidamente o seu funcionamento, de modo que sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser identificados e resolvidos o mais rapidamente possível;
II – ter ciência da possível tendência para confiar automaticamente ou confiar excessivamente no resultado produzido pelo sistema de inteligência artificial;
III – interpretar corretamente o resultado do sistema de inteligência artificial tendo em conta as características do sistema e as ferramentas e os métodos de interpretação disponíveis;
IV – decidir, em qualquer situação específica, por não usar o sistema de inteligência artificial de alto risco ou ignorar, anular ou reverter seu resultado; e
V – intervir no funcionamento do sistema de inteligência artificial de alto risco ou interromper seu funcionamento.

Art. 21. Adicionalmente às medidas de governança estabelecidas neste capítulo, órgãos e entidades do poder público da União, Estados, Distrito Federal e Municípios, ao contratar, desenvolver ou utilizar sistemas de inteligência artificial considerados de alto risco, adotarão as seguintes medidas:
I – realização de consulta e audiência públicas prévias sobre a utilização planejada dos sistemas de inteligência artificial, com informações sobre os dados a serem utilizados, a lógica geral de funcionamento e resultados de testes realizados;
II – definição de protocolos de acesso e de utilização do sistema que permitam o registro de quem o utilizou, para qual situação concreta, e com qual finalidade;
III – utilização de dados provenientes de fontes seguras, que sejam exatas, relevantes, atualizadas e representativas das populações afetadas e testadas contra vieses discriminatórios.
IV – garantia facilitada e efetiva ao cidadão, perante o poder público, de direito à explicação e revisão humanas de decisão por sistemas de inteligência artificial que gerem efeitos jurídicos relevantes ou que impactem significativamente os interesses do afetado, a ser realizada pelo agente público competente;
V – utilização de interface de programação de aplicativos que permita sua utilização por outros sistemas para fins de interoperabilidade, na forma da regulamentação; e
VI – publicização em veículos de fácil acesso, preferencialmente em seus sítios eletrônicos, das avaliações preliminares dos sistemas de inteligência artificial desenvolvidos, implementados ou utilizados pelo poder público da União, Estados, Distrito Federal e Municípios, independentemente do grau de risco, sem prejuízo do disposto no art. 43.
§ 1º A utilização de sistemas biométricos pelo poder público da União, Estados, Distrito Federal e Municípios será precedida da edição de ato normativo que estabeleça garantias para o exercício dos direitos da pessoa afetada e proteção contra a discriminação direta, indireta, ilegal ou abusiva, vedado o tratamento de dados de raça, cor ou etnia, salvo previsão expressa em lei.
§ 2º Na impossibilidade de eliminação ou mitigação substantiva dos riscos associados ao sistema de inteligência artificial identificados na avaliação de impacto algorítmico prevista no artigo 22 desta Lei, sua utilização será descontinuada.

SEÇÃO III
AVALIAÇÃO DE IMPACTO ALGORÍTMICO

Art. 22. A avaliação de impacto algorítmico de sistemas de inteligência artificial é obrigação dos agentes de inteligência artificial, sempre que o sistema for considerado como de alto risco pela avaliação preliminar.
Parágrafo único. A autoridade competente será notificada sobre o sistema de alto risco, mediante o compartilhamento das avaliações preliminar e de impacto algorítmico.

Art. 23. A avaliação de impacto algorítmico será realizada por profissional ou equipe de profissionais com conhecimentos técnicos, científicos e jurídicos necessários para realização do relatório e com independência funcional.
Parágrafo único. Caberá à autoridade competente regulamentar os casos em que a realização ou auditoria da avaliação de impacto será necessariamente conduzida por profissional ou equipe de profissionais externos ao fornecedor;

Art. 24. A metodologia da avaliação de impacto conterá, ao menos, as seguintes etapas:
I – preparação;
II – cognição do risco;
III – mitigação dos riscos encontrados;
IV – monitoramento.
§ 1º A avaliação de impacto considerará e registrará, ao menos:
a) riscos conhecidos e previsíveis associados ao sistema de inteligência artificial à época em que foi desenvolvido, bem como os riscos que podem razoavelmente dele se esperar;
b) benefícios associados ao sistema de inteligência artificial;
c) probabilidade de consequências adversas, incluindo o número de pessoas potencialmente impactadas;
d) gravidade das consequências adversas, incluindo o esforço necessário para mitigá-las;
e) lógica de funcionamento do sistema de inteligência artificial;
f) processo e resultado de testes e avaliações e medidas de mitigação realizadas para verificação de possíveis impactos a direitos, com especial destaque para potenciais impactos discriminatórios;
g) treinamento e ações de conscientização dos riscos associados ao sistema de inteligência artificial;
h) medidas de mitigação e indicação e justificação do risco residual do sistema de inteligência artificial, acompanhado de testes de controle de qualidade frequentes; e
i) medidas de transparência ao público, especialmente aos potenciais usuários do sistema, a respeito dos riscos residuais, principalmente quando envolver alto grau de nocividade ou periculosidade à saúde ou segurança dos usuários.
§ 2º Em atenção ao princípio da precaução, quando da utilização de sistemas de inteligência artificial que possam gerar impactos irreversíveis ou de difícil reversão, a avaliação de impacto algorítmico levará em consideração também as evidências incipientes, incompletas ou especulativas.
§ 3º A autoridade competente poderá estabelecer outros critérios e elementos para a elaboração de avaliação de impacto, incluindo a participação dos diferentes segmentos sociais afetados, conforme risco e porte econômico da organização.
§ 4º Caberá à autoridade competente a regulamentação da periodicidade de atualização das avaliações de impacto, considerando o ciclo de vida dos sistemas de inteligência artificial de alto risco e os campos de aplicação, podendo incorporar melhores práticas setoriais.
§ 5º Os agentes de inteligência artificial que, posteriormente à sua introdução no mercado ou utilização em serviço, tiverem conhecimento de risco inesperado que apresentem a direitos de pessoas naturais, comunicará o fato imediatamente às autoridades competente e às pessoas afetadas pelo sistema de inteligência artificial.

Art. 25. A avaliação de impacto algorítmico consistirá em processo iterativo contínuo, executado ao longo de todo o ciclo de vida dos sistemas de inteligência artificial de alto risco, requeridas atualizações periódicas.
§ 1º Caberá à autoridade competente a regulamentação da periodicidade de atualização das avaliações de impacto.
§ 2º A atualização da avaliação de impacto algorítmico contará também com participação pública, a partir de procedimento de consulta a partes interessadas, ainda que de maneira simplificada.

Art. 26. Garantidos os segredos industrial e comercial, as conclusões da avaliação de impacto serão públicas, contendo ao menos as seguintes informações:
I – descrição da finalidade pretendida para a qual o sistema será utilizado, assim como de seu contexto de uso e escopo territorial e temporal;
II – medidas de mitigação dos riscos, bem como o seu patamar residual, uma vez implementada tais medidas; e
III – descrição da participação de diferentes segmentos afetados, caso tenha ocorrido, nos termos do § 3º do art. 24 desta Lei.

CAPÍTULO V
DA RESPONSABILIDADE CIVIL

Art. 27. O fornecedor ou operador de sistema de inteligência artificial que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema.
§ 1º Quando se tratar de sistema de inteligência artificial de alto risco ou de risco excessivo, o fornecedor ou operador respondem objetivamente pelos danos causados, na medida de sua participação no dano.
§ 2º Quando não se tratar de sistema de inteligência artificial de alto risco, a culpa do agente causador do dano será presumida, aplicando-se a inversão do ônus da prova em favor da vítima.

Art. 28. Os agentes de inteligência artificial não serão responsabilizados quando:
I – comprovarem que não colocaram em circulação, empregaram ou tiraram proveito do sistema de inteligência artificial; ou
II – comprovarem que o dano é decorrente de fato exclusivo da vítima ou de terceiro, assim como de caso fortuito externo.

Art. 29. As hipóteses de responsabilização civil decorrentes de danos causados por sistemas de inteligência artificial no âmbito das relações de consumo permanecem sujeitas às regras previstas que virão em forma de lei futura.

CAPÍTULO VI
CÓDIGOS DE BOAS PRÁTICAS E DE GOVERNANÇA

Art. 30. Os agentes de inteligência artificial poderão, individualmente ou por meio de associações, formular códigos de boas práticas e de governança que estabeleçam as condições de organização, o regime de funcionamento, os procedimentos, inclusive sobre reclamações das pessoas afetadas, as normas de segurança, os padrões técnicos, as obrigações específicas para cada contexto de implementação, as ações educativas, os mecanismos internos de supervisão e de mitigação de riscos e as medidas de segurança técnicas e organizacionais apropriadas para a gestão dos riscos decorrentes da aplicação dos sistemas.
§ 1º Ao se estabelecerem regras de boas práticas, serão consideradas a finalidade, a probabilidade e a gravidade dos riscos e dos benefícios decorrentes, a exemplo da metodologia disposta no art. 24 desta Lei.
§ 2º Os desenvolvedores e operadores de sistemas de inteligência artificial, poderão:
I – implementar programa de governança que, no mínimo:
a) demonstre o seu comprometimento em adotar processos e políticas internas que assegurem o cumprimento, de forma abrangente, de normas e boas práticas relativas à não maleficência e proporcionalidade entre os métodos empregados e as finalidades determinadas e legítimas dos sistemas de inteligência artificial;
b) seja adaptado à estrutura, à escala e ao volume de suas operações, bem como ao seu potencial danoso;
c) tenha o objetivo de estabelecer relação de confiança com as pessoas afetadas, por meio de atuação transparente e que assegure mecanismos de participação nos termos do art. 24, § 3º, desta Lei;
d) esteja integrado a sua estrutura geral de governança e estabeleça e aplique mecanismos de supervisão internos e externos;
e) conte com planos de resposta para reversão dos possíveis resultados prejudiciais do sistema de inteligência artificial; e
f) seja atualizado constantemente com base em informações obtidas a partir de monitoramento contínuo e avaliações periódicas.
§ 3º A adesão voluntária a código de boas práticas e governança pode ser considerada indicativo de boa-fé por parte do agente e será levada em consideração pela autoridade competente para fins de aplicação de sanções administrativas.
§ 4º A autoridade competente poderá estabelecer procedimento de análise de compatibilidade do código de conduta com a legislação vigente, com vistas à sua aprovação, publicização e atualização periódica.

CAPÍTULO VII
DA COMUNICAÇÃO DE INCIDENTES GRAVES

Art. 31. Os agentes de inteligência artificial comunicarão à autoridade competente a ocorrência de graves incidentes de segurança, incluindo quando houver risco à vida e integridade física de pessoas, a interrupção de funcionamento de operações críticas de infraestrutura, graves danos à propriedade ou ao meio ambiente, bem como graves violações aos direitos fundamentais, nos termos do regulamento.
§ 1º A comunicação será feita em prazo razoável, conforme definido pela autoridade competente.
§ 2º A autoridade competente verificará a gravidade do incidente e poderá, caso necessário, determinar ao agente a adoção de providências e medidas para reverter ou mitigar os efeitos do incidente.

CAPÍTULO VIII
DA SUPERVISÃO E FISCALIZAÇÃO

SEÇÃO I
DA AUTORIDADE COMPETENTE

Art. 32. O Poder Executivo designará autoridade competente para zelar pela implementação e fiscalização da presente Lei.
Parágrafo único. Cabe à autoridade competente:
I – zelar pela proteção a direitos fundamentais e a demais direitos afetados pela utilização de sistemas de inteligência artificial;
II – promover a elaboração, atualização e implementação da Estratégia Habbletiana de Inteligência Artificial junto aos órgãos de competência correlata;
III – promover e elaborar estudos sobre boas práticas no desenvolvimento e utilização de sistemas de inteligência artificial;
IV – estimular a adoção de boas práticas, inclusive códigos de conduta, no desenvolvimento e utilização de sistemas de inteligência artificial;
V – promover ações de cooperação com autoridades de proteção e de fomento ao desenvolvimento e à utilização dos sistemas de inteligência artificial de outros países, de natureza internacional ou transnacional;
VI – expedir normas para a regulamentação desta Lei, inclusive sobre:
a) procedimentos associados ao exercício dos direitos previstos nesta Lei;
b) procedimentos e requisitos para elaboração da avaliação de impacto algorítmico;
c) forma e requisitos das informações a serem publicizadas sobre a utilização de sistemas de inteligência artificial; e
d) procedimentos para certificação do desenvolvimento e utilização de sistemas de alto risco.
VII – articular-se com as autoridades reguladoras públicas para exercer suas competências em setores específicos de atividades econômicas e governamentais sujeitas à regulação;
VIII – fiscalizar, de modo independente ou em conjunto com outros órgãos públicos competentes, a divulgação das informações previstas nos arts. 7º e 43;
IX – fiscalizar e aplicar sanções, em caso de desenvolvimento ou utilização de sistemas de inteligência artificial realizado em descumprimento à legislação, mediante processo administrativo que assegure o contraditório, a ampla defesa e o direito de recurso;
X – solicitar, a qualquer momento, às entidades do poder público que desenvolvam ou utilizem sistemas de inteligência artificial, informe específico sobre o âmbito, a natureza dos dados e os demais detalhes do tratamento realizado, com a possibilidade de emitir parecer técnico complementar para garantir o cumprimento desta Lei;
XI – celebrar, a qualquer momento, compromisso com agentes de inteligência artificial para eliminar irregularidade, incerteza jurídica ou situação contenciosa no âmbito de processos administrativos.
XII – apreciar petições em face do operador de sistema de inteligência artificial, após comprovada apresentação de reclamação não solucionada no prazo estabelecido em regulamentação; e
XIII – elaborar relatórios anuais acerca de suas atividades.
Parágrafo único. Ao exercer as atribuições do caput, o órgão competente poderá estabelecer condições, requisitos, canais de comunicação e divulgação diferenciados para fornecedores e operadores de sistemas de inteligência artificial qualificados como micro ou pequenas empresas.

Art. 33. A autoridade competente será o órgão central de aplicação desta Lei e do estabelecimento de normas e diretrizes para a sua implementação.

Art. 34. A autoridade competente e os órgãos e entidades públicas responsáveis pela regulação de setores específicos da atividade econômica e governamental coordenarão suas atividades, nas correspondentes esferas de atuação, com vistas a assegurar o cumprimento desta Lei.
§ 1º A autoridade competente manterá fórum permanente de comunicação, inclusive por meio de cooperação técnica, com órgãos e entidades da administração pública responsáveis pela regulação de setores específicos da atividade econômica e governamental, a fim de facilitar as suas competências regulatória, fiscalizatória e sancionatória.
§ 2º Nos ambientes regulatórios experimentais (sandbox regulatório) que envolvam sistemas de inteligência artificial, conduzidos por órgãos e entidades públicas responsáveis pela regulação de setores específicos da atividade econômica, a autoridade competente será cientificada, podendo se manifestar quanto ao cumprimento das finalidades e princípios desta lei.

Art. 35. Os regulamentos e as normas editados pela autoridade competente serão precedidos de consulta e audiência públicas, bem como de análises de impacto regulatório.

SEÇÃO II
DAS SANÇÕES ADMINISTRATIVAS

Art. 36. Os agentes de inteligência artificial, em razão das infrações cometidas às normas previstas nesta Lei, ficam sujeitos às seguintes sanções administrativas aplicáveis pela autoridade competente:
I – advertência;
II – multa simples, limitada, no total, a ¢ 50.000.000,00 (cinquenta milhões de câmbios habbletianos) por infração, sendo, no caso de pessoa jurídica de direito privado, de até 2% (dois por cento) de seu faturamento, de seu grupo ou conglomerado no Habblet no seu último exercício, excluídos os tributos;
III – publicização da infração após devidamente apurada e confirmada a sua ocorrência;
IV – proibição ou restrição para participar de regime de sandbox regulatório previsto nesta Lei, por até cinco anos;
V – suspensão parcial ou total, temporária ou definitiva, do desenvolvimento, fornecimento ou operação do sistema de inteligência artificial; e
VI – proibição de tratamento de determinadas bases de dados.
§ 1º As sanções serão aplicadas após procedimento administrativo que possibilite a oportunidade da ampla defesa, de forma gradativa, isolada ou cumulativa, de acordo com as peculiaridades do caso concreto e considerados os seguintes parâmetros e critérios:
I – a gravidade e a natureza das infrações e a eventual violação de direitos;
II – a boa-fé do infrator;
III – a vantagem auferida ou pretendida pelo infrator;
IV – a condição econômica do infrator;
V – a reincidência;
VI – o grau do dano;
VII – a cooperação do infrator;
VIII – a adoção reiterada e demonstrada de mecanismos e procedimentos internos capazes de minimizar riscos, inclusive a análise de impacto algorítmico e efetiva implementação de código de ética;
IX – a adoção de política de boas práticas e governança;
X – a pronta adoção de medidas corretivas;
XI – a proporcionalidade entre a gravidade da falta e a intensidade da sanção; e
XII – a cumulação com outras sanções administrativas eventualmente já aplicadas em definitivo para o mesmo ato ilícito.
§ 2º Antes ou durante o processo administrativo do § 1º, poderá a autoridade competente adotar medidas preventivas, incluída multa cominatória, observado o limite total a que se refere o inciso II do caput, quando houver indício ou fundado receio de que o agente de inteligência artificial:
I – cause ou possa causar lesão irreparável ou de difícil reparação; ou
II – torne ineficaz o resultado final do processo.
§ 3º No caso do desenvolvimento, fornecimento ou utilização de sistemas de inteligência artificial de risco excessivo haverá, no mínimo, aplicação de multa e, no caso de pessoa jurídica, a suspensão parcial ou total, provisória ou definitiva de suas atividades.
§ 4º A aplicação das sanções previstas neste artigo não exclui, em qualquer hipótese, a obrigação da reparação integral do dano causado, nos termos do art. 27.

Art. 37. A autoridade competente definirá, por meio de regulamento próprio, o procedimento de apuração e critérios de aplicação das sanções administrativas a infrações a esta Lei, que serão objeto de consulta pública.
Parágrafo único. As metodologias a que se refere o caput deste artigo serão previamente publicadas e apresentarão objetivamente as formas e dosimetrias das sanções, que conterão fundamentação detalhada de todos os seus elementos, demonstrando a observância dos critérios previstos nesta Lei.

SEÇÃO III
MEDIDAS PARA FOMENTAR A INOVAÇÃO

Art. 38. A autoridade competente poderá autorizar o funcionamento de ambiente regulatório experimental para inovação em inteligência artificial (sandbox regulatório) para as entidades que o requererem e preencherem os requisitos especificados por esta Lei e em regulamentação.

Art. 39. As solicitações de autorização para sandboxes regulatórios serão apresentadas ao órgão competente por meio de projeto cujas características contemplem, entre outras:
I – inovação no emprego da tecnologia ou no uso alternativo de tecnologias existentes;
II – aprimoramentos no sentido de ganhos de eficiência, redução de custos, aumento de segurança, diminuição de riscos, benefícios à sociedade e a consumidores, entre outros;
III – plano de descontinuidade, com previsão de medidas a serem tomadas para assegurar a viabilidade operacional do projeto uma vez encerrado o período da autorização do sandbox regulatório.

Art. 40. A autoridade competente editará regulamentação para estabelecer os procedimentos para a solicitação e autorização de funcionamento de sandboxes regulatórios, podendo limitar ou interromper o seu funcionamento, bem como emitir recomendações, levando em consideração, dentre outros aspectos, a preservação de direitos fundamentais, de direitos dos consumidores potencialmente afetados e a segurança e proteção dos dados pessoais que forem objeto de tratamento.

Art. 41. Os participantes no ambiente de testagem da regulamentação da inteligência artificial continuam a ser responsáveis, nos termos da legislação aplicável em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem.

Art. 42. Não constitui ofensa a direitos autorais a utilização automatizada de obras, como extração, reprodução, armazenamento e transformação, em processos de mineração de dados e textos em sistemas de inteligência artificial, nas atividades feitas por organizações e instituições de pesquisa, de jornalismo e por museus, arquivos e bibliotecas, desde que:
I – não tenha como objetivo a simples reprodução, exibição ou disseminação da obra original em si;
II – o uso ocorra na medida necessária para o objetivo a ser alcançado;
III – não prejudique de forma injustificada os interesses econômicos dos titulares; e
IV – não concorra com a exploração normal das obras.
§ 1º Eventuais reproduções de obras para a atividade de mineração de dados serão mantidas em estritas condições de segurança, e apenas pelo tempo necessário para a realização da atividade ou para a finalidade específica de verificação dos resultados da pesquisa científica.
§ 2º Aplica-se o disposto no caput à atividade de mineração de dados e textos para outras atividades analíticas em sistemas de inteligência artificial, cumpridas as condições dos incisos do caput e do § 1º, desde que as atividades não comuniquem a obra ao público e que o acesso às obras tenha se dado de forma legítima.

SEÇÃO IV
BASE DE DADOS PÚBLICA DE INTELIGÊNCIA ARTIFICIAL

Art. 43. Cabe à autoridade competente a criação e manutenção de base de dados de inteligência artificial de alto risco, acessível ao público, que contenha os documentos públicos das avaliações de impacto, respeitados os segredos comercial e industrial, nos termos do regulamento.

CAPÍTULO IX
DAS DISPOSIÇÕES FINAIS

Art. 44. Os direitos e princípios expressos nesta Lei não excluem outros previstos no ordenamento jurídico pátrio ou nos tratados internacionais em que a República Democrática do Habblet seja parte.

Art. 45. Esta Lei entra em vigor após a sua publicação.


JUSTIFICATIVA:

A rápida evolução e disseminação das tecnologias de Inteligência Artificial (IA) têm trazido inúmeros benefícios para a sociedade. As IA são capazes de realizar tarefas complexas, melhorar a eficiência em diversos setores e impulsionar o desenvolvimento econômico. No entanto, seu uso também pode trazer desafios éticos, sociais e legais que requerem uma abordagem regulatória adequada.
Diante desse contexto, o presente projeto de lei tem como objetivo estabelecer uma estrutura regulatória para a utilização de Inteligências Artificiais, visando proteger os direitos e interesses das pessoas, promover a transparência e a responsabilidade no desenvolvimento e uso dessas tecnologias, bem como garantir a segurança e a equidade em sua aplicação.
A rápida evolução e disseminação das tecnologias de Inteligência Artificial (IA) têm trazido inúmeros benefícios para a sociedade. As IA são capazes de realizar tarefas complexas, melhorar a eficiência em diversos setores e impulsionar o desenvolvimento econômico. No entanto, seu uso também pode trazer desafios éticos, sociais e legais que requerem uma abordagem regulatória adequada.
Diante desse contexto, o presente projeto de lei tem como objetivo estabelecer uma estrutura regulatória para a utilização de Inteligências Artificiais, visando proteger os direitos e interesses das pessoas, promover a transparência e a responsabilidade no desenvolvimento e uso dessas tecnologias, bem como garantir a segurança e a equidade em sua aplicação.


06 de Julho de 2023.
Brasília, Habblet.
[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL Sabrin29[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL Harry_10
Sabrina.Grey
Sabrina.Grey
Deputado(a) Federal
Deputado(a) Federal

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL UU7fQQg

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL PtGywSS

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL 5Iqeoxn




Mensagens : 377
Data de inscrição : 01/09/2021
Buscando informações do e-título...

[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL Empty Re: [PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL

Qui 04 Abr 2024, 00:08
[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL NMcvdQzlq3Jyq2uYXXBKapEhBsffp4CZkzpC6DP9HHS1-wkaFa5sqOYAb4fzDRmvA1he_BiJcCEV28TKha5inG0UvquouJ8rqZIGfwKIa5ENfi7DJA6iCqwo83aEMLpP2UG9HbiHFBk7iWTeFifeU6YmTVZMxRFczV5YEA709Uj8IbEYVJmZASSEeQrafQ

MESA DIRETORA DO CONGRESSO NACIONAL
SANÇÃO DE PROJETO DE LEI APÓS O PRAZO ÚTIL

A Excelentíssima Presidente do Congresso Nacional, Sabrina Grey, no uso de suas atribuições resguardadas pela Constituição Federal e pelo Regimento Interno da Câmara dos Deputados, comunica:

I. Sanciona-se o Projeto de Lei referenciado visto a extinção do prazo de sanção pela Presidência da República.

Câmara dos Deputados, Habblet.
04 de Abril de 2024.
[PL] 148/2023 - DISPÕE SOBRE O USO DA INTELIGÊNCIA ARTIFICIAL Sabrin48
Ir para o topo
Permissões neste sub-fórum
Não podes responder a tópicos
Postagens no fórum
Usuários registrados
Último registrado(a)