De acordo com dados divulgados pelo Gartner, até 2028 as máquinas baseadas em Inteligência Artificial (IA) serão responsáveis por 20% da força de trabalho global e 40% de toda a produtividade econômica. A consultoria prevê também que as companhias que implementarem transparência, confiança e segurança no uso de IA verão os seus modelos de tecnologia alcançarem uma melhoria de 50% em termos de adoção, conquista de objetivos de negócios e aceitação de quem os utilizam.
Para Mark Horvath, vice-presidente e analista do Gartner, os diretores de segurança da informação (CISOs) não podem permitir que a Inteligência Artificial controle suas empresas. A Inteligência Artificial exige novas formas de gestão de confiança, risco e segurança (TRiSM) que os controles convencionais não oferecem. O analista destaca que os CISOs precisam defender o AI TRiSM – diretriz que dá suporte à governança, confiabilidade, imparcialidade, segurança, solidez, eficácia e privacidade ao modelo de Inteligência Artificial – para melhorar os resultados de tecnologia, aumentar a velocidade do modelo de Inteligência Artificial até a produção e permitir uma melhor governança ou racionalizando o portfólio de modelos de Inteligência Artificial. “Assim, pode-se eliminar até 80% de informações falsas e ilegítimas”, alerta Horvath.
A Inteligência Artificial não só representa riscos consideráveis para os dados, uma vez que conjuntos de informações sensíveis são frequentemente utilizadas para treinar modelos de tecnologia, como também a precisão dos resultados dos próprios modelos e a qualidade dos conjuntos de dados podem variar ao longo do tempo, o que pode causar consequências adversas.
A implementação de AI TRiSM permite que as empresas entendam o que seus modelos de Inteligência Artificial estão fazendo, até que ponto eles se alinham com as intenções originais, além de indicar o que pode ser esperado em termos de desempenho e de valor comercial.
O Gartner alerta que as empresas correm o risco de implementarem centenas ou milhares de modelos de IA que os próprios líderes de TI não serão capazes de explicar ou de interpretar. Para os analistas, as empresas que não forem capazes de gerenciar os riscos associados à Inteligência Artificial (IA) estão muito mais propensas a obterem violações e resultados negativos. Os modelos de IA podem não funcionar como planejando, ocorrendo falhas de segurança e de privacidade, além de danos aos indivíduos, perdas financeiras e de reputação. A IA que é executada indevidamente também pode levar companhias a tomarem más decisões de negócios.
5 prioridades no gerenciamento de risco de IA
1. Capturar a extensão da exposição, inventariar a Inteligência Artificial utilizada na empresa e garantir o nível certo de explicabilidade;
2. Conscientizar as equipes de sua empresa e liderar uma campanha formal de educação sobre os riscos da Inteligência Artificial;
3. Apoiar a confiabilidade, fiabilidade e segurança dos modelos, incorporando a gestão de riscos em suas operações;
4. Eliminar a exposição de dados internos e partilhados de Inteligência Artificial por meio da adoção de programas de proteção e privacidade de dados;
5. Adotar medidas específicas de segurança de Inteligência Artificial para proteger de eventuais ataques, garantir resistência e resiliência.