O primeiro chute na lata legislativa da IA na Califórnia pode ter falhado, mas uma nova iteração foi bem -sucedida com a assinatura na segunda -feira do Lei 53 do Senado (SB 53), A transparência na Frontier Artificial Intelligence Act (TFIA), pelo governador do estado, Gavin Newsom.
A Califórnia, disse ele em comunicado, provou que ele pode “estabelecer regulamentos para proteger nossas comunidades, além de garantir que a crescente indústria de IA continue a prosperar. Essa legislação atinge esse equilíbrio”.
A passagem do SB 53 segue o veto de Newsom no ano passado do projeto de lei 1047 do Senado (SB 1047), conhecido como o Inovação segura e segura para a Frontier Artificial Intelligence Models Actque, se promulgada em lei, teria forçado as empresas de IA a testar seus sistemas em busca de segurança antes de serem libertados.
Em um artigo de opinião escrito logo após a rejeição do SB 1047, Kjell Carlsson, chefe da estratégia de IA do Domino Data Lab, afirmou: “Embora a intenção de (TI) fosse louvável, sua abordagem foi falha. Focou -se em organizações que são fáceis de regular versus onde está o risco real”.
O SB 53, um comunicado do escritório de Newsom, declarado, é uma legislação que é “projetada para aprimorar a segurança on -line, instalando o Commonsense Guardrails no desenvolvimento de modelos de inteligência artificial de fronteira, ajudando a construir confiança pública, além de continuar a estimular a inovação nessas novas tecnologias”.
“Isso pode enviar um sinal assustador.”
Entre os grupos que reagiram rapidamente à assinatura estava a Câmara de Progresso, que se descreve como uma coalizão de políticas da indústria de tecnologia central-esquerda.
Robert Singleton, diretor sênior de políticas e assuntos públicos do grupo para a Califórnia e os EUA, disse que o estado “sempre ofereceu uma chance justa para novos inovadores – é exatamente por isso que nosso setor de tecnologia floresceu. Mas isso poderia enviar um sinal arrepiante para a próxima geração de empreendedores que desejam construir aqui na Califórnia”.
Karthi P, analista sênior do Everest Group, tinha um ponto de vista diferente, descrevendo o SB 53 como “uma etapa de referência que exige que os provedores de IA da fronteira tornem suas práticas de segurança e relatórios de incidentes públicos. Ao colocar essas informações em aberto, a lei reduz a incerteza para as empresas e facilita a adoção da IA em áreas onde a confiança e a confiança são essenciais”.
Ele também vai além da Lei da UE da AI, exigindo divulgação pública de questões como ataques cibernéticos ou comportamento de modelo enganoso, garantindo a regulamentação e a tecnologia evoluir em conjunto, disse ele.
Notavelmente, disse P, o projeto de lei “ganhou apoio da Antrópica e Evitou forte oposição de outros provedores líderes, sugerindo que ele atinge o equilíbrio certo entre supervisão e inovação. Esse equilíbrio provavelmente acelerará o momento por trás da IA responsável, transformando o que já era uma prioridade crescente em um padrão global mais rápido.”
Pode ser um plano para outros estados
Além disso, ele disse: “Os efeitos indiretos podem ser de longo alcance: outros estados podem usar o SB 53 como modelo, as empresas aumentarão as expectativas de transparência em suas compras e os reguladores globais podem procurar na Califórnia, assim como fizeram com a Europa após o GDPR”.
Alla Valente, analista principal da Forrester Research, concordou. “Sem dúvida, o SB 53 da Califórnia é monumental por vários motivos”, disse ela. “Mais notavelmente, a Califórnia tem um número desproporcional de grandes empresas de IA. Mais de 50% dos maiores players de tecnologia de IA do mundo estão sediados lá, então o impacto é direto.”
O SB 53, ela disse, vem “um ano após o governador vetível o SB 1047, depois que os lobistas da tecnologia e grandes empresas de IA se uniram por serem muito restritivas. Além disso, o SB 53 vem logo após o anúncio de um super-pacote que é o que se regulamenta, que é um dos que se regulamentações, que se regulamentaram. futuro, está na Casa do Estado, não no Congresso. ”
Valente apontou que o SB 53 se concentra na transparência e responsabilidade, mas não tem o mesmo grau de requisitos de segurança que o SB 1047. “Nesse sentido, é o meio termo entre segurança e inovação”, disse ela. “(Isso) pode muito bem se tornar um plano para outros estados adotarem uma estrutura de política de IA focada na transparência e prestação de contas e tem apoio de um pelo menos uma gigante da tecnologia da IA, antropal.”
Os estados que desejam governar o uso indevido intencional da IA, mas que não querem ir tão longe quanto exigir uma estrutura de risco, provavelmente modelarão suas contas após a Lei Traiga do Texas, disse ela.
Shane Tierney, gerente sênior de programa de governança, risco e conformidade (GRC) da DRATA, uma plataforma baseada em nuvem que ajuda as organizações a permanecer em conformidade com os requisitos regulatórios, acrescentou que o estatuto, embora seja direcionado diretamente aos principais laboratórios de IA, sinalizam uma mudança de expectativa para o setor. ”
Práticas como publicar cartões de modelo, documentar estratégias de mitigação de riscos e estabelecer manuais de resposta a incidentes provavelmente se tornarão características padrão do desenvolvimento responsável da IA, mesmo fora do escopo imediato da lei, disse ele.
Tierney observou: “A incorporação de segurança, segurança e transparência na inovação ajuda as empresas a construir e manter a confiança com seus clientes e parceiros. As empresas que tratam a IA responsável como um imperativo estratégico, e não como uma caixa de seleção regulamentares, definirão a próxima era da IA Innovation”.
Ele também disse que a abordagem da Califórnia “deve influenciar a formulação de políticas estaduais e federais. Embora o SB 53 contenha uma cláusula de preemção que impeça as ordenanças locais na Califórnia de adotar requisitos de segurança de IA conflitantes, não limita outros estados de promulgar sua própria legislação. Esses esforços. ”
Fonte: Computer World