Lacunas sistêmicas na supervisão
Os analistas apontam que esse não é apenas uma questão profunda, mas um risco sistêmico em todo o ecossistema de modelo fundamental da IA, citando a falta de padronização e governança transfronteiriça.
“À medida que o número de modelos de fundação prolifera e as empresas construíram cada vez mais aplicativos ou codificando, torna-se imperativo para os CIOs e os líderes de TI estabelecerem e seguir uma estrutura robusta de due diligence de vários níveis”, disse Shah. “Essa estrutura deve garantir a transparência de dados de treinamento, forte privacidade de dados, políticas de governança de segurança e, pelo menos, verificações rigorosas para vieses geopolíticos, influência da censura e possíveis violações de IP”.
Os especialistas recomendam que os CIOs revisem a transparência dos dados e algoritmos de treinamento, sejam responsáveis pelo contexto geopolítico e usem avaliações independentes de terceiros e testes piloto controlados antes de passar para a integração em larga escala. “Há também uma necessidade crescente de estruturas e estruturas regulatórias para garantir a neutralidade da IA, a segurança e a conformidade ética”, disse Ram. “Os padrões nacionais e internacionais poderiam ajudar as empresas a confiar nas saídas da IA enquanto atenuam os riscos de sistemas tendenciosos ou politicamente influenciados”.
Fonte: Computer World













