A inteligência artificial (IA) vem transformando profundamente diversos aspectos da sociedade, e o direito não está imune a essa revolução. Desde algoritmos que analisam dados para prever crimes até carros autônomos que decidem qual risco assumir em situações de emergência, a IA já está tomando decisões que antes eram exclusivas dos seres humanos. Mas quando essas decisões causam danos, surge a questão: quem deve ser responsabilizado?
Se olharmos pela perspectiva da ética kantiana, que valoriza a autonomia e a responsabilidade individual, a IA parece um desafio quase insuperável. Afinal, uma máquina não possui intencionalidade nem consciência moral. Por outro lado, a filósofa Hannah Arendt nos alerta sobre o perigo da "responsabilidade difusa", em que ninguém assume a culpa porque a decisão foi compartilhada ou automatizada.
No âmbito jurídico, isso gera debates complexos: devemos culpar o programador, o fabricante, ou até mesmo o usuário? Leis tradicionais de responsabilidade civil e penal não foram concebidas para lidar com agentes não humanos, criando lacunas preocupantes. Como o direito pode se adaptar a esse novo cenário sem perder sua capacidade de promover justiça?
Refletimos: Em um mundo onde máquinas tomam decisões, como podemos garantir que a responsabilidade jurídica seja justa e funcional?