É hora de discutir responsabilidade e educação digital
Por Cecilia Mello

Midjourney, uma das plataformas de geração de imagens e vídeos por inteligência artificial — Foto: Reprodução/Midjourney
A inteligência artificial (IA) já não é uma promessa futura — é realidade. Ferramentas capazes de gerar textos, imagens, vídeos e vozes com realismo cada vez maior desafiam a noção de verdade e pressionam os sistemas jurídicos a se atualizarem. Diante desse cenário, o mundo discute como regular e responsabilizar o uso da IA, especialmente quando seus efeitos extrapolam os limites éticos e legais. O Brasil participa desse debate, mas o caminho até uma regulação eficaz, equilibrada e tecnicamente segura ainda está em construção.
Nos últimos anos, o Congresso Nacional recebeu diversas propostas voltadas à criação de um marco regulatório da IA e à criminalização de condutas específicas, como a disseminação de deepfakes, a manipulação de conteúdo eleitoral e fraudes algorítmicas. A iniciativa mais estruturada até o momento é o substitutivo ao Projeto de Lei nº 2.338/2023, aprovado pelo Senado em dezembro de 2024 e atualmente em análise na Câmara dos Deputados. Com base em um anteprojeto elaborado por juristas e proposto pelo então presidente do Senado, Rodrigo Pacheco (PSD-MG), o texto reúne dispositivos de sete projetos anteriores, incluindo o PL 21/2020, e de dezenas de emendas parlamentares.
A partir dessa aprovação, vários projetos que tratavam de temas semelhantes foram considerados prejudicados e enviados ao arquivo — entre eles, o PL 5.051/2019, o PL 5.691/2019, o PL 872/2021, o PL 3.592/2023, e os PLs 210 e 266/2024. Essa consolidação legislativa é importante por evitar sobreposições normativas e reduzir o risco de contradições jurídicas. No entanto, ela concentra o debate regulatório em um único texto, o que exige atenção redobrada da sociedade civil e do setor jurídico para os próximos desdobramentos na Câmara.
O substitutivo estabelece princípios para o desenvolvimento e uso ético da IA, garante a proteção de direitos fundamentais e dos criadores de conteúdo artístico e reforça a responsabilidade dos desenvolvedores. Por outro lado, exclui da categoria de “alto risco” os algoritmos de redes sociais, o que provocou divergência entre a base do governo e a oposição. Embora não trate de censura ou controle de opinião, o texto impõe aos responsáveis pelos sistemas a obrigação de zelar pelas ferramentas que disponibilizam à sociedade. Sua tramitação foi precedida de amplo diálogo social, com 14 audiências públicas, e o projeto é considerado um avanço por colocar o ser humano no centro das decisões envolvendo IA — ainda que pontos críticos permaneçam abertos.
Entre as propostas ainda em discussão, destaca-se o PL 2.306/2023, que propõe a identificação obrigatória de conteúdos gerados por IA, com previsão de penalidades em caso de fraude ou omissão dessa informação. Outro avanço recente é o PL 6.119/2023, aprovado na Comissão de Defesa do Consumidor da Câmara, que altera o Código Penal e o Código de Defesa do Consumidor para prever pena de quatro a oito anos de reclusão para quem utilizar IA com o objetivo de manipular, enganar ou induzir o consumidor ao erro — endurecendo a punição para publicidade enganosa praticada por meio de tecnologia.
Apesar desses avanços, o Brasil ainda carece de uma legislação geral e consolidada sobre IA. Hoje, práticas abusivas são enquadradas em normas genéricas, como o Código Penal e o Marco Civil da Internet. Essa lacuna normativa gera insegurança para desenvolvedores e usuários, além de dificultar a uniformização da jurisprudência. A consequência é um cenário vulnerável, propenso a judicializações complexas e decisões inconsistentes.
Esse desafio não é exclusivo do Brasil. Nos Estados Unidos, o avanço da regulação ocorre principalmente em nível estadual. A Califórnia e o Texas já criminalizam deepfakes em contextos eleitorais e pornográficos, mas os projetos federais — como o Deepfake Accountability Act e o Algorithmic Accountability Act — estão parados no Congresso. O primeiro busca criminalizar manipulações com fins fraudulentos ou difamatórios; o segundo exige auditorias para prevenir discriminação algorítmica. Ambos carecem de previsão para votação.
A União Europeia lidera o debate global com o AI Act, aprovado em março de 2024, que proíbe usos considerados inaceitáveis, impõe limites ao reconhecimento facial em espaços públicos e prevê multas severas — até 7% do faturamento global — para violações. A norma será implementada gradualmente até 2026. A UE também revisa sua Diretiva sobre Crimes Cibernéticos para incluir, até 2025, tipos penais relacionados à IA.
Outros países adotam abordagens distintas. A China impõe regras rígidas desde 2023, exigindo identificação de conteúdos gerados por IA e proibindo deepfakes não autorizados. O Reino Unido, por meio do Online Safety Act, já criminaliza deepfakes maliciosos, embora ainda não tenha uma legislação geral sobre IA. No Canadá, o projeto C-27 (AIDA) propõe uma regulação com foco em transparência e responsabilidade civil, e segue em tramitação.
O que se observa, no Brasil e no exterior, é que a maioria das iniciativas legislativas se concentra na criminalização de abusos evidentes — como pornografia não consensual, fraudes e desinformação. Trata-se de uma reação compreensível à amplitude dos danos possíveis. No entanto, criminalizar o uso da IA, por si só, não resolve o problema. Sem definições claras, risco de dano efetivo e critérios técnicos para aferição, a criminalização pode comprometer direitos como a liberdade de expressão, inibir a inovação e abrir caminho para abusos estatais.
É por isso que a discussão sobre o uso ético e seguro da inteligência artificial precisa ser mais ampla. O debate jurídico deve incluir também responsabilidade civil, governança digital, transparência algorítmica e políticas públicas de educação midiática. As penalidades precisam ser proporcionais e as normas devem reconhecer que a tecnologia é um meio — os responsáveis são os agentes que a desenvolvem, operam e usam.
Esse olhar mais sistêmico começa a surgir no Brasil com o julgamento do Recurso Extraordinário 1.057.258 (Tema 987) no Supremo Tribunal Federal, que discute se as plataformas digitais devem ser responsabilizadas por conteúdos de terceiros. Embora não trate diretamente da IA, a decisão pode fixar parâmetros para definir a extensão do dever de cuidado das big techs diante de abusos amplificados por algoritmos. A questão é saber se essas empresas devem responder não apenas quando descumprem ordens judiciais, mas também quando se omitem diante de conteúdos manifestamente ilícitos.
A inteligência artificial não é boa nem má — é ferramenta. As decisões continuam sendo humanas. O desafio não é apenas punir abusos cometidos com o auxílio da IA, mas construir uma estrutura legal e institucional que previna danos e garanta o uso responsável da tecnologia. Isso exige mais do que leis penais. Exige diálogo técnico, compromisso democrático e uma visão de futuro.
Cecilia Mello é sócia e fundadora do Cecilia Mello Advogados. Atuou como desembargadora federal no TRF-3 de 2003 a 2017, advogada e procuradora do Estado de SP de 1985 a 2003. Vice-presidente do Conselho Superior de Assuntos Jurídicos da Fiesp. Mestre em Direito, Justiça e Cidadania pelo IDP.
Artigo publicado no Valor Econômico em 25/07/2025
