No entanto, disse Mishra, uma vez envolvido o governo dos EUA, particularmente através de uma entidade como o DoD, a capacidade da OpenAI de impedir certas utilizações torna-se mais frágil: “Exclusões de segurança nacional, programas confidenciais e doutrinas de imunidade soberana enfraquecem significativamente qualquer tentativa de desafiar a utilização governamental puramente por motivos éticos. Os tribunais têm historicamente demonstrado deferência quando a segurança nacional é invocada, mesmo quando contratantes privados se opõem”, disse ele.
Houve “tensões semelhantes” em disputas anteriores envolvendo vigilância de telecomunicações e contratos de defesa, onde as empresas confiaram na linguagem contratual e na governação interna, mas “em última análise, tiveram uma influência limitada quando as autoridades federais afirmaram poderes estatutários”, disse ele.
Desfavoravelmente para a OpenAI, não existe um precedente claro em que um fornecedor de tecnologia bloqueou com sucesso o governo federal de usar uma ferramenta para fins de segurança ou defesa, uma vez que o acesso foi concedido contratualmente, disse Mishra, acrescentando que as exceções de segurança nacional provavelmente substituiriam compromissos mais brandos em torno do uso ético da IA no caso de um conflito direto.
Fonte: Computer World













