Agência governamental dos EUA testará com segurança modelos de IA de fronteira antes do lançamento

Esta última onda de actividade de Washington marca uma mudança significativa na direcção política de uma administração que até recentemente tinha seguido uma abordagem mais laissez-faire à regulamentação, salientou Levy.

As preocupações em torno do modelo Claude Mythos da Anthropic, e a relativa facilidade com que poderia descobrir e explorar vulnerabilidades em sistemas digitais, “podem ter ajudado a mudar a posição do governo federal sobre a regulamentação relacionada com a IA, particularmente em torno do impulso renovado para aplicar padrões para implementações relacionadas com IA em toda a infra-estrutura governamental”, disse ele.

Fornecedores de IA como Google, Microsoft e xAI, acrescentou Levy, “devem andar em uma espécie de corda bamba política enquanto equilibram a necessidade de lançar modelos no mercado de maneira oportuna e econômica com regras cada vez mais definidas em torno da segurança e segurança cibernética relacionadas à IA. A indústria não pode permitir um cenário em que os próprios fornecedores estabeleçam as regras à medida que avançam”.

Fonte: Computer World

Compartilhe este artigo