“Os riscos de privacidade e conformidade são significativos, especialmente na Europa sob o GDPR e as leis trabalhistas, onde a captura de pressionamentos de teclas e atividades na tela pode ser restrita ou exigir consentimento explícito”, disse Jain. “Os riscos de segurança aumentam porque os conjuntos de dados de treinamento podem conter credenciais, IP e fluxos de trabalho confidenciais, tornando-os alvos de ataque de alto valor.”
Gogia disse que os riscos não devem ser vistos isoladamente. “Estes riscos acumulam-se. Eles interagem. Reforçam-se mutuamente”, disse ele, acrescentando que os dados recolhidos para a formação em IA também podem ser reaproveitados ao longo do tempo para monitorização da produtividade ou outras decisões relacionadas com o emprego.
Jain acrescentou que a governação pode tornar-se mais difícil porque as empresas podem ter dificuldade em rastrear o que os sistemas de IA aprenderam com funcionários específicos. A conscientização dos funcionários sobre o monitoramento também pode afetar a qualidade dos próprios dados. “As pessoas não se comportam da mesma maneira quando sabem que estão sendo observadas”, disse Gogia. Com o tempo, isso pode significar que os sistemas são treinados não na forma como o trabalho acontece naturalmente, mas no comportamento moldado pela observação.
Fonte: Computer World












