
IA sem Lei, Mas com Risco: O Alerta que as Empresas Não Podem Ignorar
Enquanto o mundo jurídico discute marcos regulatórios para a inteligência artificial, a realidade já impõe seus próprios limites. O uso de IA generativa, capaz de produzir textos, imagens e sons com base em dados existentes, está sendo desafiado em tribunais internacionais por possíveis violações de direitos autorais. E mesmo que no Brasil ainda não haja uma lei específica para regular a IA, o risco jurídico, reputacional e financeiro já é plenamente concreto. Empresas de tecnologia que treinam seus modelos com grandes volumes de conteúdo retirado da internet alegam estar agindo dentro dos limites do uso transformativo. No entanto, criadores de conteúdo, editoras, artistas e veículos de comunicação têm questionado judicialmente essa prática, apontando que o uso de obras protegidas, sem autorização ou compensação, representa uma forma de exploração indevida. O embate jurídico pode estar em sua fase inicial, mas os danos à imagem e os custos com litígios já se apresentam como uma ameaça real. É exatamente esse o ponto central: as empresas não precisam esperar por uma nova lei para começarem a se expor a sanções e ações judiciais. A legislação de direitos autorais vigente, como a brasileira Lei nº 9.610/1998, já protege criações intelectuais contra uso indevido, e pode ser acionada quando ferramentas de IA geram conteúdos que reproduzam ou derivem de obras protegidas. No ambiente corporativo, isso significa que o uso despreparado da IA, seja em campanhas de marketing, geração de conteúdo interno, automação de serviços ou mesmo em pesquisa e desenvolvimento, pode colocar a organização sob risco imediato. O argumento de que “a lei ainda não existe” não serve como escudo. A jurisprudência avança, a sociedade civil reage, e os precedentes internacionais devem influenciar diretamente a interpretação das normas brasileiras. Além disso, o Projeto de Lei nº 2338/2023, que tramita no Congresso Nacional, já aponta para obrigações futuras como a transparência nas bases de dados utilizadas para treinar modelos de IA. Isso exigirá das empresas maior controle, rastreabilidade e critérios claros de licitude nos dados utilizados. Quem não começar essa preparação agora poderá enfrentar um passivo difícil de gerenciar no futuro. A ausência de um marco legal específico não é, portanto, sinônimo de ausência de responsabilidade. Ao contrário, ela amplia a zona cinzenta em que decisões equivocadas podem gerar danos irreversíveis à reputação de uma marca ou resultar em litígios longos e custosos. A hora de agir é agora. Implementar práticas de governança de IA, rever contratos, adotar políticas de compliance digital e auditar os fluxos de uso de ferramentas baseadas em inteligência artificial são medidas urgentes para quem deseja inovar com responsabilidade. Não há mais espaço para improviso no uso da IA. A inovação, para ser sustentável, precisa caminhar lado a lado com a ética, a transparência e o respeito à lei, mesmo quando esta ainda está em formação.