Fonte: https://editoraforum.com.br/noticias/o-novo-marco-legal-da-inteligencia-artificial-no-brasil-e-os-rumos-da-responsabilidade-civil/ A Inteligência Artificial (IA) deixou de ser apenas uma inovação tecnológica para se tornar parte do cotidiano. As IA's já ocupam uma grande parcela de responsabilidade em processos decisivos em áreas como saúde, justiça, educação e até entretenimento. Isso significa que cada vez mais, algoritmos influenciam escolhas humanas, mediam conflitos e até determinam resultados que podem mudar vidas. Por toda essa influencia, surge a grande questão: quem deve ser responsabilizado quando a IA toma uma decisão equivocada ou causa dano através de sua programação?
Esse é um grande desafio jurídico e ético que o Brasil e diversos países do mundo passaram a enfrentar.
A difícil tarefa de definir culpados
Tradicionalmente, o direito civil brasileiro trabalha com a lógica de que todo dano precisa ter um responsável, um "causador". Porém, no caso da IA, a situação fica mais complicada, afinal, estamos falando de um sistema que toma decisões autônomas, baseadas em aprendizado de maquina, e que podem agir de forma inesperada até mesmo para seus próprios desenvolvedores.
Segundo Borja(2024), o instituto da responsabilidade civil enfrenta "um descompasso entre a velocidade do avanço tecnológico e a capacidade de adaptação do ornamento jurídico brasileiro". Ou seja, a lei ainda não acompanha plenamente as novas formas de risco criadas pela IA.
Quem deve responder legalmente?
Esse dilema abre espaço para diversas interpretações e possíveis "culpados" ou "responsáveis":
O desenvolvedor: aquele que cria o sistema pode ser responsabilizado por falhas de programação ou ausência de medidas de segurança.
O fornecedor: empresas que comercializam as soluções com IA devem responder por vícios, erros e por não estabelecerem limites no código.
O usuário: O usuário que utiliza a IA para fins específicos(medicina, economia, assuntos jurídicos ou pessoais) também teria responsabilidade por seu uso e seus possíveis impactos.
O que diz o direito brasileiro?
Nos últimos anos, o Brasil tem dado passos importantes para enfrentar essas questões. O Projeto de Lei nº 2.338/2023 estabelece princípios e deveres para o uso da IA, trazendo diretrizes de transparência, segurança e responsabilidade. Embora ainda esteja em tramitação, já sinaliza a necessidade de um marco legal robusto para proteger cidadãos e dar segurança jurídica às empresas.
Além disso, iniciativas locais começam a surgir, como a Lei Complementar nº 205/2025 do estado de Goiás, que instituiu uma política estadual de governança ética da IA. Esse tipo de regulação descentralizada mostra que o debate não está restrito à esfera federal, mas também ganha força em estados e municípios.
Leite et al. (2024), ao analisar o impacto da IA em plataformas digitais, ressaltam que a regulação deve ser multidimensional, contemplando aspectos técnicos, sociais e éticos. Não basta apenas “punir” ou “atribuir culpa”, é preciso também prevenir riscos e estabelecer boas práticas.
Caminhos éticos e políticos
O avanço tecnológico coloca o legislador em constante corrida contra o tempo. No caso do Brasil, parlamentares do Congresso Nacional precisam ser cobrados por medidas rápidas e eficientes, legislando sobre o tema o mais breve possível. Como lembra Borja (2024), o desafio não é apenas jurídico, mas também ético. As diretrizes precisam responder a perguntas como: até que ponto é aceitável delegar decisões morais a sistemas automatizados? Como garantir que a IA respeite direitos fundamentais, como a privacidade e a dignidade humana?
Políticas públicas, como as discutidas no Brasil, caminham na direção de:
• Garantir transparência nos algoritmos.
• Assegurar a responsabilização(prestação de contas) por parte de desenvolvedores e usuários.
• Criar instâncias regulatórias capazes de fiscalizar e intervir em casos de abuso.
A responsabilidade deve ser compartilhada
A verdade é que a Inteligência Artificial não é uma entidade completamente independente, mas sim uma tecnologia criada e operada por seres humanos. Portanto, a responsabilidade não deve decair apenas para um lado desta equação com tantas variáveis. O futuro da regulação das IA's no Brasil passa por um modelo de responsabilidade compartilhada, em que desenvolvedores, usuários e o Estado devem dividir o dever de garantir que a tecnologia em questão seja usada de maneira justa, ética e segura.
O debate esta apenas começando, mas já é de extrema urgência. A resposta, ao que tudo indica, é que todos nós temos um papel nessa equação.
E você, acredita que a IA deveria ter responsabilidade própria, ou suas entidades criadoras e empresas mantenedoras, ou acha que o usuário é o responsável pela maneira que utiliza a ferramenta? Deixe sua opinião nos comentários e contribua com essa discussão!
Fonte: https://startupi.com.br/top-5-ias-presentes/
Referências:
BORJA, Maria Fernanda Rodrigues. A inteligência artificial e o instituto da responsabilidade civil: desafios jurídicos e aplicações no contexto do direito brasileiro. PUC-SP, 2024. Acesso em 2 de agosto de 2025.
BRASIL. Projeto de Lei nº 2.338, de 2023. Estabelece princípios, direitos e deveres para o uso da inteligência artificial no Brasil. Acesso em 2 de agosto de 2025.
BRASIL. Lei Complementar nº 205, de 2025 (Goiás). Institui a política estadual de governança ética da
inteligência artificial. Acesso em 2 de agosto de 2025.
LEITE, George et al. Inteligência Artificial Responsável, Plataformas de Mídia Social e Regulação no Brasil. Novos Olhares (USP), v. 11, n. 2, 2024. Acesso em 2 de agosto de 2025.
Comentários
Postar um comentário