Recentemente, a Google apresentou uma nova linha de modelos de IA abertos, chamada Gemma 3, que rapidamente recebeu elogios por sua eficiência impressionante. No entanto, desenvolvedores manifestaram preocupações no X sobre como a licença do Gemma 3 torna seu uso comercial um desafio arriscado.
Esse não é um problema exclusivo do Gemma 3. Empresas como a Meta também aplicam termos de licenciamento personalizados e não padronizados em seus modelos disponíveis publicamente, o que gera desafios legais para muitas empresas. Negócios menores, em particular, receiam que companhias como a Google possam repentinamente alterar os termos, o que poderia prejudicar suas operações.
“O licenciamento restritivo e inconsistente dos chamados modelos de IA ‘abertos’ está gerando uma incerteza significativa, especialmente para a adoção comercial,” afirmou Nick Vidal, líder comunitário da Open Source Initiative, uma instituição que busca definir e regular tudo que envolve o código aberto. “Enquanto esses modelos são promovidos como abertos, os termos reais impõem vários obstáculos legais e práticos que desestimulam as empresas de integrá-los em seus produtos ou serviços.”
Os desenvolvedores de modelos abertos têm suas razões para optar por licenças proprietárias em vez de opções padrão da indústria como Apache e MIT. A startup de IA Cohere, por exemplo, deixou claro que seu objetivo é apoiar trabalhos científicos — mas não comerciais — sobre seus modelos.
No entanto, as licenças do Gemma e do Llama da Meta, em particular, impõem restrições que limitam as maneiras como as empresas podem usar os modelos sem temer retaliações legais.
Por exemplo, a Meta impede que desenvolvedores utilizem a “saída ou resultados” dos modelos Llama 3 para aprimorar qualquer modelo além do Llama 3 ou “trabalhos derivados”. Além disso, empresas com mais de 700 milhões de usuários ativos mensais não podem implementar os modelos do Llama sem antes obter uma licença adicional especial.
A licença do Gemma, por sua vez, é geralmente menos restritiva. No entanto, ela concede à Google o direito de “restringir (de forma remota ou não) o uso” do Gemma que a empresa acredita estar em violação de suas políticas de uso proibido ou de “leis e regulamentos aplicáveis”.
Esses termos não se aplicam apenas aos modelos originais do Llama e do Gemma. Modelos baseados no Llama ou Gemma também devem respeitar as respectivas licenças. No caso do Gemma, isso inclui modelos treinados com dados sintéticos gerados por ele.
Florian Brand, assistente de pesquisa no Centro de Pesquisa em Inteligência Artificial da Alemanha, acredita que — ao contrário do que altos executivos das gigantes de tecnologia gostariam que acreditássemos — licenças como as do Gemma e do Llama “não podem ser razoavelmente chamadas de ‘código aberto’.”
“A maioria das empresas possui um conjunto de licenças aprovadas, como Apache 2.0, então, qualquer licença personalizada é um grande problema e um gasto de dinheiro,” informou Brand. “Pequenas empresas sem equipes jurídicas ou recursos para advogados continuarão a utilizar modelos com licenças padrão.”
Brand observou que os desenvolvedores de modelos de IA com licenças personalizadas, como a Google, ainda não têm aplicado suas regras de maneira rigorosa. No entanto, a simples ameaça pode ser suficiente para desencorajar a adoção.
“Essas restrições impactam o ecossistema de IA — até mesmo pesquisadores de IA como eu,” disse Brand.
Han-Chung Lee, diretor de aprendizado de máquina na Moody’s, concorda que licenças personalizadas, como as anexadas ao Gemma e ao Llama, tornam os modelos “inutilizáveis” em muitos cenários comerciais. Eric Tramel, cientista aplicado da startup de IA Gretel, compartilha da mesma opinião.
“Licenças específicas de modelo fazem distinções específicas para derivados de modelo e destilação, o que gera preocupação quanto a possíveis encargos legais,” afirmou Tramel. “Imagine uma empresa que está produzindo fine-tunes de modelo especificamente para seus clientes. Que licença um fine-tune com dados do Gemma deve ter? Qual seria o impacto para todos os seus clientes?
O cenário que mais preocupa os implementadores, segundo Tramel, é o de que os modelos representam uma espécie de cavalo de Troia.
“Uma fundição de modelos pode lançar modelos [abertos], esperar para ver quais casos de negócios se desenvolvem utilizando esses modelos e, então, pressionar para entrar em setores de sucesso através de extorsão ou ações legais,” explicou. “Por exemplo, o Gemma 3, à primeira vista, parece um lançamento sólido — e um que poderia ter um amplo impacto. Mas o mercado não consegue adotá-lo devido à estrutura de licenciamento. Assim, as empresas provavelmente continuarão utilizando modelos Apache 2.0, que podem ser mais fracos e menos confiáveis.”
Vale esclarecer que certos modelos conseguiram uma ampla distribuição, apesar de suas licenças restritivas. O Llama, por exemplo, foi baixado centenas de milhões de vezes e incorporado em produtos de grandes corporações, incluindo Spotify.
No entanto, esses modelos poderiam ser ainda mais bem-sucedidos se tivessem licenciamento permissivo, de acordo com Yacine Jernite, chefe de aprendizado de máquina e sociedade na startup de IA Hugging Face. Jernite pediu que provedores como a Google adotem estruturas de licenciamento abertas e “colaborem de maneira mais direta” com os usuários em termos amplamente aceitos.
“Dada a falta de consenso sobre esses termos e o fato de que muitas das suposições subjacentes ainda não foram testadas nos tribunais, tudo isso serve principalmente como uma declaração de intenção por parte desses atores,” disse Jernite. “[Mas se certas cláusulas] forem interpretadas de forma muito ampla, muito bom trabalho encontrará um terreno legal incerto, o que é particularmente assustador para organizações que estão construindo produtos comerciais de sucesso.”
Vidal enfatiza que há uma necessidade urgente de modelos de IA que as empresas possam integrar, modificar e compartilhar livremente, sem temer mudanças súbitas nas licenças ou ambigüidade legal.
“O cenário atual de licenciamento de modelos de IA está repleto de confusão, termos restritivos e alegações enganosas de abertura,” concluiu Vidal. “Em vez de redefinir ‘aberto’ para atender aos interesses corporativos, a indústria de IA deveria alinhar-se aos princípios estabelecidos de código aberto para criar um ecossistema verdadeiramente aberto.”
Webcam Full HD Logitech C920s com Microfone Embutido e Proteção de Privacidadepara Chamadas e Gravações em Video Widescreen 1080p - Compatível com LogitechCapture
R$ 430,00
Vendido na Amazon