Nos últimos anos, a Inteligência Artificial (IA) tem despontado como uma das maiores tecnologias emergentes do século. Em um breve intervalo de tempo, seu uso foi amplamente disseminado e popularizado no Brasil e no mundo.
Um estudo da F5, companhia de segurança para aplicações digitais, apurou que 75% das organizações de todo o globo estão, atualmente, implementando projetos com a tecnologia para otimizar suas atividades diárias. A pesquisa é de junho de 2024.
À medida em que a IA avança, cresce a necessidade de uma regulamentação adequada para garantir que seu uso seja ético, transparente e responsável.
Vários países já começaram a discutir como essa regulação deve acontecer, enquanto as empresas precisam se adaptar a essa nova realidade.
Por que a regulamentação da IA está sendo debatida?
A discussão sobre a regulamentação da Inteligência Artificial surge, justamente, em resposta a esse rápido avanço dessa tecnologia e seu impacto direto em diversos setores da sociedade.
Conforme a IA se torna cada vez mais integrada em processos decisórios, desde serviços financeiros até saúde e segurança pública, questões éticas, legais e de responsabilidade vêm à tona.
A ausência de uma lei específica abre brechas para o uso inadequado de sistemas, que podem violar direitos fundamentais, como a privacidade e a não discriminação.
Governos e legisladores percebem a necessidade de criar um ambiente regulatório que proteja os cidadãos contra potenciais abusos, ao mesmo tempo em que incentive a inovação responsável, garantindo um equilíbrio entre o progresso tecnológico e a proteção dos direitos humanos.
Além disso, a pauta também está sendo discutida para mitigar os riscos econômicos e sociais que essa tecnologia pode gerar.
A automação proporcionada pela IA pode provocar uma significativa transformação no mundo do trabalho, com a substituição de empregos humanos por máquinas, o que aumenta a pressão por políticas públicas que acomodem esse movimento de maneira justa.
Paralelamente, a utilização de IA por grandes corporações e governos exige maior transparência e accountability, para evitar monopólios tecnológicos e proteger a competição justa no mercado.
A regulamentação visa também garantir que as empresas ajam com responsabilidade ao desenvolver e implementar IA, prevenindo que tecnologias de alto risco causem danos sociais irreversíveis.
O cenário da IA no Brasil
Embora o Brasil ainda não tenha um marco regulatório consolidado sobre a IA, diversos projetos de lei tramitam no Congresso Nacional.
Um dos mais relevantes é o PL 21/2020, que se propõe a estabelecer princípios para o desenvolvimento e o uso da Inteligência Artificial no país.
Esse projeto propõe diretrizes para a criação de políticas públicas sobre IA, além de introduzir conceitos como responsabilidade, transparência e proteção de dados.
Outra proposição em destaque é o PL 872/2021, traz diretrizes sobre responsabilidade civil e penal no uso de IA, além de princípios éticos e normas técnicas.
Para grandes empresas, esse cenário representa a necessidade de acompanhamento constante das discussões legislativas. O desenvolvimento de uma regulamentação formal poderá trazer novas obrigações, exigindo adequação de sistemas e processos para garantir conformidade legal.
Leia também: A Evolução das Apostas no Brasil: De Quotas Fixas a Jogos de Azar – Regulação Necessária
A regulamentação da IA no exterior
No cenário internacional, alguns países já estão mais avançados na regulamentação da IA.
A União Europeia, por exemplo, propôs o AI Act, uma legislação pioneira que classifica os sistemas de IA em diferentes níveis de complexidade jurídica e impõe restrições rigorosas sobre aqueles considerados de “alto risco”.
O foco da legislação na Europa é garantir a segurança e a proteção dos direitos fundamentais enquanto, ao mesmo tempo, fomenta a inovação.
Sistemas de IA utilizados em áreas como segurança pública, saúde e recrutamento estão sujeitos a uma supervisão mais rigorosa.
Nos Estados Unidos, a abordagem em relação à regulamentação é mais fragmentada.
Como é da natureza da organização legislativa por lá, não há uma legislação federal unificada, mas estados como a Califórnia têm desenvolvido suas próprias normas.
Além disso, órgãos como a Federal Trade Commission (FTC) têm emitido orientações sobre o uso ético e transparente de IA, especialmente no que tange à proteção de dados dos consumidores.
Já a China adota uma abordagem diferente, mais controladora em relação ao desenvolvimento e uso de IA.
O governo chinês busca equilibrar o incentivo à inovação com um forte controle estatal.
Empresas que operam em múltiplos mercados devem estar atentas a essas regulamentações e garantir que seus produtos e projetos de IA estejam em conformidade com as normas locais.
Além disso, a pressão por regulamentações mais rigorosas tende a continuar crescendo, à medida que a tecnologia evolui e mais questões éticas surgem.
Impacto da regulamentação para empresas
Para organizações que utilizam IA, a regulamentação traz desafios e oportunidades. A conformidade com normas rigorosas pode gerar aumento nos custos de operação, especialmente em setores altamente regulamentados, como saúde e finanças.
Empresas terão que garantir que seu uso de IA seja transparente, auditável e alinhado aos princípios de responsabilidade.
Em contrapartida, a regulamentação também pode ser vista como uma oportunidade.
Negócios que se destacam pela aplicação ética da tecnologia tendem a ganhar vantagem competitiva, especialmente em um mercado cada vez mais atento a questões de responsabilidade social corporativa.
Aqueles que adotam IA de maneira ética e transparente podem atrair novos clientes e parceiros que priorizam a segurança e a privacidade.
Em termos práticos, a regulamentação pode influenciar desde a forma como os algoritmos são treinados até a maneira como os dados são coletados e utilizados.
O AI Act, por exemplo, impõe uma série de obrigações para sistemas de IA de complexidade elevada, como auditorias regulares, supervisão humana e transparência sobre o funcionamento dos algoritmos.
IA e LGPD: há conexão?
No Brasil, a Lei Geral de Proteção de Dados (LGPD) não trata diretamente de IA, mas tem implicações importantes para seu uso.
A LGPD regula o tratamento de dados pessoais, impondo restrições sobre como esses dados podem ser coletados, armazenados e utilizados.
Como muitos modelos de IA dependem de grandes volumes de informações sensíveis, para funcionar, as empresas que utilizam essas plataformas precisam garantir que o tratamento de tudo que utilizam para treinar os sistemas esteja em conformidade com a legislação.
Entre os pontos de atenção legais, estão a necessidade de consentimento dos titulares de dados e o respeito à finalidade específica para a qual os dados foram coletados.
A questão dos direitos autorais também ganha relevância no contexto da Inteligência Artificial, especialmente em relação à criação e uso de conteúdos multimídia gerados por modelos como ChatGPT e Gemini.
Essas ferramentas de IA podem criar textos, músicas e imagens com base em volumes de dados extraídos de outros locais – ou seja, criados por pessoas.
A dinâmica levanta a pergunta sobre quem detém os direitos por essas criações: o desenvolvedor da IA? Os proprietários dos dados-base? A própria Inteligência Artificial, que, por definição, não possui personalidade jurídica?
Além disso, o uso de materiais protegidos por direitos autorais para treinar sistemas de IA sem autorização pode infringir leis de propriedade intelectual.
Polêmicas e decisões judiciais recentes
A IA já esteve no centro de diversas controvérsias. Internacionalmente, um dos casos mais notórios envolve a Amazon, que teve que interromper o uso de uma ferramenta de recrutamento baseada em IA após descobrir que o algoritmo favorecia candidatos homens em detrimento de mulheres.
Esse caso levanta questões importantes sobre a responsabilidade das empresas em garantir que seus sistemas de IA não perpetuem discriminações.
No Brasil, uma polêmica recente envolve o uso de IA no Judiciário.
O Conselho Nacional de Justiça (CNJ) liberou o uso de IA, sob certas condições, como triagem de processos, análise de jurisprudência e automação de tarefas repetitivas.
No entanto, o órgão destacou a necessidade de garantir transparência e respeito à privacidade.
O futuro da regulamentação da Inteligência Artificial
O futuro da regulamentação da IA será moldado por uma combinação de inovações tecnológicas e pressões regulatórias.
No Brasil, a expectativa é que nos próximos anos uma legislação mais robusta seja implementada, seguindo o exemplo do AI Act..
Para as empresas, isso significa que o desenvolvimento de IA deverá ser acompanhado de uma preocupação constante com questões éticas e legais.
A autorregulamentação pode ser um caminho viável para antecipar eventuais exigências legais, promovendo a transparência e a responsabilidade desde o início do desenvolvimento de sistemas de IA.