Ciência e tecnologia

Como é o futuro do desenvolvimento de software movido a IA-e quão seguro é?

As ferramentas de IA e aprendizado de máquina tiveram um papel importante no desenvolvimento de software por muitos anos, ajudando a impulsionar a eficiência e a automação. A nova geração de ferramentas de IA tem o potencial de sobrecarregar essa transformação, trazendo melhorias ainda maiores para os ciclos de eficiência, custo-efetividade e inovação.

No entanto, essas ferramentas também apresentam novos riscos, incluindo vulnerabilidades de segurança, desafios de governança e incerteza regulatória. Como em qualquer nova abordagem tecnológica, as organizações que trazem novas ferramentas de IA e, especificamente, o código gerado pela IA para seus ciclos de vida de desenvolvimento deve equilibrar benefícios com os riscos potenciais.

Mais rápido, mais inteligente e mais produtivo? As promessas do desenvolvimento movido a IA

Em comum com a maioria dos setores que investem na IA, um dos maiores empates no desenvolvimento de software é o potencial de aumentar a eficiência. Os primeiros dias do ciclo de hype da IA ​​viram algumas expectativas muito infladas de ganhos de produtividade, mas realisticamente, estamos vendo várias melhorias na indústria até agora – qualquer coisa, desde 5 % de melhorias na produtividade até 50 %.

Isso é realizado principalmente automatizando tarefas repetitivas, como teste e configuração de infraestrutura. São importantes, mas podem demorar muito e geralmente são vistos como drudgework pelos desenvolvedores. Também estamos vendo novos recursos emergir a cada duas semanas, levando -o ao próximo nível e a maiores recursos.

Automatando essas atividades libera os desenvolvedores para se concentrar em tarefas de maior valor, idealmente melhorando a velocidade do desenvolvimento, aumentando a qualidade e alcançando maior ROI. Isso se traduz na velocidade dos negócios e na capacidade de inovar mais rapidamente.

No entanto, como na maioria dos avanços técnicos, o aumento do uso da IA ​​também traz mais riscos se não for gerenciado adequadamente.

Os riscos ocultos em código gerado pela IA e vulnerabilidades de segurança

Um dos maiores perigos do código gerado pela IA é assumir que é mais seguro que o código humano. De fato, o oposto geralmente é verdadeiro. Um estudo da Universidade de Stanford descobriram que a dependência excessiva da IA ​​pode resultar em código menos seguro e mais propenso a erros.

Normalmente, descobrimos que a maioria das ferramentas de IA produz código em um nível que você esperaria de um codificador júnior. Provavelmente fará o trabalho, mas não terá o refinamento e a inovação que um desenvolvedor humano experiente possa alcançar. A tecnologia está melhorando rapidamente, mas está longe de ser perfeita.

A IA também apresenta alguns riscos adicionais que não são frequentemente encontrados no código artesanal. “Alucinações de IA” (ou seja, casos em que os modelos de IA geram saídas incorretas, enganosas ou sem sentido) tornaram-se menos comuns, mas ainda são possíveis, então sempre há uma chance de a IA sair da tarefa e começar a escrever código inútil.

Os vazamentos de dados são outro problema. Como demonstrado pelo Brecha de alto perfil São sofrida pela Samsung, há riscos potenciais em torno de dados sensíveis sendo inadvertidamente tornados vulneráveis ​​ou até mal utilizados.

Buscando as melhores práticas para garantir o código da IA

A boa notícia é que o gerenciamento do código de IA inseguro não é particularmente mais desafiador do que lidar com o erro humano. No final do dia, o código é o código.

Embora as ferramentas de IA certamente estejam fornecendo resultados notáveis, é um erro grave confiar em sua produção sem uma supervisão estreita de desenvolvedores humanos experientes.

A IA pode sugerir correções de código, mas os desenvolvedores devem verificá -los para garantir que sejam estáveis ​​e seguros. As ferramentas de visibilidade certas podem rastrear automaticamente as alterações de código geradas pela IA, para que nada deslize para quebrar o aplicativo.

Novamente, trate o código gerado pela IA, como a saída de um codificador júnior. Enquanto houver supervisão suficiente, deve haver um risco mínimo. Acredito que chegaremos lá em algum momento em um futuro muito próximo, mas, por enquanto, é importante manter o humano em loop.

Tudo agora é um desenvolvedor e o futuro de todas as linguagens de programação

Outro aspecto é a codificação da vibração. A Coding Vibe é uma técnica de programação que usa a IA para escrever código com base nas descrições de linguagem natural. É uma prática crescente que permite que os programadores se concentrem em idéias e arquitetura, em vez de codificação manual. Isso significa que todos agora têm o potencial de se tornar um desenvolvedor simplesmente interagindo com um sistema de IA em inglês simples. Você descreve o aplicativo que deseja criar e, em seguida, a IA o gera para você. Isso abre um mundo totalmente novo de tornar quase todo mundo na empresa um desenvolvedor em potencial. Muito emocionante para a sua velocidade comercial, mas um pesadelo real do ponto de vista da segurança. Se a futura linguagem de programação for clara em inglês, como você a protege? Se todos agora são um desenvolvedor em potencial, como você protege esse desenvolvimento em escala? Isso torna a educação e a governança de segurança um aspecto essencial do futuro de todas as organizações.

Como é a boa governança da IA ​​agora?

Com a IA sendo uma tecnologia tão nascente e mutável, ainda há muita incerteza sobre estruturas regulatórias e de governança. A Ordem Executiva dos EUA sobre ‘Desenvolvimento e Uso de Inteligência Artificial’, seguros, seguros e confiáveis ​​’emitidos pelo ex -presidente Biden foi recentemente rescindido pelo presidente Trump, criando mais ambiguidade.

Todo mundo que usa a IA deve estar trabalhando proativamente suas próprias diretrizes enquanto isso. A IA não é mais apenas um problema de TI – está afetando quase todas as funções comerciais, desde finanças ao RH. Como tal, as empresas devem criar políticas estritas de segurança interna que cobrem áreas como gerenciamento de riscos de fornecedores e parâmetros de definição de como a IA pode ser usada pelo pessoal.

Mesmo para aqueles que ainda não estão integrando a IA em seu SDLC, com a maioria dos aplicativos que devem integrar os modelos de IA dentro de 18 a 24 meses, as organizações devem à prova de sua abordagem de segurança no futuro.

Existem várias estruturas disponíveis que fornecem um sólido ponto de partida para o desenvolvimento de governança de IA. Recursos como NIST’s Estrutura de gerenciamento de risco de IA e ISO/IEC 42001O primeiro padrão de gerenciamento de IA, oferece orientações para entender as prioridades e organizar a atividade.

Também é importante considerar quaisquer requisitos regulatórios e legais relevantes. As empresas americanas que desenvolvem software para a saúde precisarão aderir a HIPAApor exemplo, enquanto as empresas que negociam dentro da UE precisarão cumprir com o GDPR. Também existem regulamentos específicos de IA em algumas regiões, como os da UE Você tem um documentoque se concentra no uso da IA ​​que pode causar riscos inaceitáveis.

Ai pode ser um divisor de águas, mas não é uma bala mágica

A IA está mudando permanentemente a face do desenvolvimento de software, transformando os fluxos de trabalho das equipes de desenvolvimento. Embora a maioria dessas mudanças seja positiva, as empresas devem estar preparadas para enfrentar os riscos aumentados que o acompanham.

Ainda estamos nos primeiros dias de descobrir como é a boa governança da IA, mas se as empresas não começarem a garantir o desenvolvimento da IA ​​agora, em breve ficarão para trás. As organizações que trabalham proativamente para garantir a IA obterão uma vantagem competitiva significativa sobre aqueles que aguardam os decretos regulatórios e legais.

Crédito da imagem: Biancoblue/depositphotos.com

ORI BENDET é vice -presidente de gerenciamento de produtos, Checkmarx.



Link da fonte

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Botão Voltar ao Topo