PL 2338/2023: o Marco Regulatório da Inteligência Artificial no Brasil e seus Impactos na Saúde

PL 2338/2023: o Marco Regulatório da Inteligência Artificial no Brasil e seus Impactos na Saúde

O PL 2338/2023 pretende estabelecer um marco regulatório para inteligências artificiais no Brasil, com foco em transparência, segurança e proteção de direitos. Mas ainda há lacunas críticas, especialmente no uso de IA em saúde, e o risco de aplicação sem fiscalização pode ser elevado.

O que é o PL 2338/2023?

O Projeto de Lei (PL) 2338/2023, também conhecido como o PL da Inteligência Artificial, é uma proposta legislativa apresentada no Senado Federal com o objetivo de criar um marco regulatório nacional para o desenvolvimento, utilização e governança de sistemas de inteligência artificial (IA) no Brasil.

Resultado do trabalho de uma comissão de juristas e inspirado em normas internacionais, especialmente a regulamentação da União Europeia, o PL busca estabelecer princípios como transparência, ética, segurança, proteção de dados e controle humano nos sistemas de IA.

O projeto já foi aprovado pelo Senado Federal e agora segue para análise na Câmara dos Deputados para possíveis ajustes até chegar à sanção presidencial.


Principais pontos contemplados pela proposta

1. Classificação de risco de sistemas de IA

O PL adota uma abordagem baseada em risco, dividindo os sistemas de IA em categorias que vão de baixo risco a risco excessivo, com especial atenção aos sistemas de alto risco, que exigem documentação, monitoramento e impacto avaliados antes e após o uso.

No contexto da saúde, isso é especialmente relevante porque muitas aplicações de IA, tais como auxílio a diagnósticos, interpretação de exames e apoio terapêutico, caem nessa categoria de risco elevado, demandando rigor regulatório.


2. Transparência

O projeto exige que usuários sejam informados quando estão interagindo com um sistema de AI e que as decisões automatizadas, especialmente as que afetam direitos individuais, possam ser explicadas, com possibilidade de revisão por um humano.

Esse aspecto é importante para a confiança do usuário, mas ainda deixa espaço para interpretação em setores críticos como a saúde, onde erros de IA podem colocar vidas em risco se não houver fiscalização clara.


3. Proteção de dados e direitos dos cidadãos

O PL 2338/2023 alinha-se com a Lei Geral de Proteção de Dados (LGPD) no sentido de proteger a privacidade, a segurança da informação e a autonomia das pessoas sobre seus dados, com direito à correção, exclusão e bloqueio quando mal utilizados.


Onde o PL ainda carece de clareza, especialmente para a Saúde

Apesar de avançar na regulação geral da IA, o PL 2338/2023 ainda deixa lacunas importantes quando aplicado a áreas sensíveis como saúde, medicina diagnóstica e terapias assistidas por IA:

1. Falta de critérios específicos para IA em saúde

Embora o projeto fale em classificação de risco, não existem regras claras e especializadas que abordem, por exemplo, como sistemas de IA que influenciam diagnóstico médico deveriam ser auditados, validados ou supervisionados por profissionais qualificados. Isso é diferente de avaliar um algoritmo de recomendação de filmes ou de logística.


2. Governança ampla, mas sem fiscalização rígida

A proposta inclui a criação de instâncias consultivas e transparência social, e atribui à Autoridade Nacional de Proteção de Dados (ANPD) um papel importante de regulação.

No entanto, sistemas de IA ligados à saúde estariam sujeitos a regras que ainda não foram completamente detalhadas em textos finais, deixando margem para a utilização da tecnologia sem supervisão adequada, especialmente em ambientes clínicos ou hospitalares.


3. Riscos elevados sem uma lei para fiscalizar e autorizar usos específicos

Do ponto de vista de um profissional da saúde ou gestor de clínica, existe um risco real de que ferramentas de IA sejam adotadas antes que existam leis claras sobre quem fiscaliza, como auditar e quando um sistema pode ser considerado seguro para uso clínico.

Sem isso, empresas podem lançar produtos de IA com pouca ou nenhuma validação, resultando em:

  • Diagnósticos errados ou vieses discriminatórios
  • Falhas sem responsabilização legal clara
  • Privacidade de pacientes comprometida
  • Falta de supervisão humana real em processos críticos

Esses são riscos que não foram totalmente mitigados pelo PL 2338/2023 na versão que circula atualmente.


O que está em discussão atualmente

Após aprovação no Senado, o PL chegou à Câmara dos Deputados, onde está sendo analisado por uma comissão especial. Além disso, há debates sobre a criação de um sistema nacional de governança para IA e alguns vetos ou ajustes que podem surgir antes da sanção final.

Esse período é muito importante, pois é o momento em que setores econômicos e sociais, incluindo associações de saúde, tecnologia e proteção de dados, podem influenciar o texto final para garantir maior segurança, especialmente para aplicações médicas ou de saúde.


Opinião da DNACIS: inovação com responsabilidade

Na visão da DNACIS, o PL 2338/2023 representa um passo importante rumo à criação de um ambiente regulatório moderno no Brasil. Ele reconhece que a tecnologia é parte essencial da transformação digital, inclusive na saúde.

Mas nossa avaliação também é clara:

É positivo que se estabeleçam princípios de transparência, governança e proteção de dados.

É preocupante que não haja regras claras e específicas para aplicações de IA em saúde, uma área em que erros podem significar consequências diretas à vida e ao bem-estar das pessoas.

A regulamentação deve ser feita com critérios técnicos robustos, fiscalização efetiva e responsabilidade civil bem definida, especialmente antes que tais sistemas sejam amplamente utilizados em clínicas e hospitais.

Enquanto a lei não for sancionada, regimes quanto ao uso de IA em saúde seguem um vazio legal que pode expor pacientes e profissionais a riscos consideráveis.


Conclusão

O PL 2338/2023 é um marco aguardado e necessário para o Brasil, criando um arcabouço legal para a inteligência artificial. Mas ele ainda precisa evoluir para se tornar uma legislação efetiva e segura, principalmente no setor de saúde.

A regulamentação de IA deve ir além de princípios gerais, ela deve criar regras claras e mecanismos de fiscalização eficazes, especialmente quando a tecnologia atua diretamente no cuidado e na vida das pessoas.

A DNACIS acredita que a IA pode ser uma grande aliada da saúde, desde que adotada de forma responsável, regulamentada adequadamente e sempre com supervisão humana qualifica


Linkedin, Instagram, Facebook


Voltar para o Blog