<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>Forem: 4L3xD</title>
    <description>The latest articles on Forem by 4L3xD (@4l3xd).</description>
    <link>https://forem.com/4l3xd</link>
    <image>
      <url>https://media2.dev.to/dynamic/image/width=90,height=90,fit=cover,gravity=auto,format=auto/https:%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Fuser%2Fprofile_image%2F1397927%2F223832bb-997f-4fa0-b3f6-2265291bf891.jpeg</url>
      <title>Forem: 4L3xD</title>
      <link>https://forem.com/4l3xd</link>
    </image>
    <atom:link rel="self" type="application/rss+xml" href="https://forem.com/feed/4l3xd"/>
    <language>en</language>
    <item>
      <title>Segurança de IA</title>
      <dc:creator>4L3xD</dc:creator>
      <pubDate>Sun, 31 Mar 2024 00:45:07 +0000</pubDate>
      <link>https://forem.com/womakerscode/seguranca-de-ia-1oo3</link>
      <guid>https://forem.com/womakerscode/seguranca-de-ia-1oo3</guid>
      <description>&lt;h2&gt;
  
  
  🍎 O que é IA 🐍
&lt;/h2&gt;

&lt;p&gt;O berço da Inteligência Artificial é acadêmico, desde 1956 essa disciplina é estudada como objeto da ciência.¹ Em 2017 a arquitetura de Deep Learning, "Transformer", tornou acessível modelos de Processamento de Linguagem Natural, Visão Computacional, Processamento de Áudio e Processamento Multimodal, popularizando o uso comercial de IA.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Ffidydkb5pwpqqvg05fi7.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Ffidydkb5pwpqqvg05fi7.png" alt="AI Care - MokeyUser" width="800" height="493"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;blockquote&gt;
&lt;p&gt;“Um sistema de IA é um sistema baseado em máquina que, para objetivos explícitos ou implícitos, infere, a partir da entrada que recebe, como gerar resultados como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.&lt;br&gt;
Diferentes sistemas de IA variam nos seus níveis de autonomia e adaptabilidade após a implantação.”²&lt;/p&gt;
&lt;/blockquote&gt;

&lt;p&gt;&lt;a href="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fmlezxgzqh5di3tzlzt05.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fmlezxgzqh5di3tzlzt05.png" alt="Figura 1.0.0 - Visão geral, ilustrativa e simplificada de um Sistema de IA³" width="800" height="321"&gt;&lt;/a&gt;&lt;br&gt;
&lt;strong&gt;Figura 1.0.0 -&lt;/strong&gt; Visão geral, ilustrativa e simplificada de um Sistema de IA²&lt;/p&gt;

&lt;p&gt;Inferência é uma operação que se baseia em amostras estatísticas para efetuar generalizações. Uma IA realiza uma inferência interpretando inputs com base no seu modelo. Inputs são dados de entrada — podendo ser um texto, como no caso de tradutores de texto ou uma imagem, como no uso de biometria para autenticação. Além de texto e imagem poderiam ser utilizados diferentes tipos de dados de entrada baseados em diferentes mídias. O modelo de IA pode ser pensado como resultado da interação de seu algoritmo com o conjunto de dados de treinamento. Uma medida de eficiência de um modelo de ML é a acurácia, que calcula  a taxa de acertos em relação a amostragem de dados. No entanto, além do algoritmo e dos dados de treinamento, modelos de Deep Learning também são influenciados pela interação do usuário, ou inputs. Isso quer dizer que o usuário possui influência sobre o comportamento da IA e pode abusar deste recurso.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fz2uwbjnet24x112f02iy.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fz2uwbjnet24x112f02iy.png" alt="New Model - MonkeyUser" width="800" height="870"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  🚧 Pipeline 🚧
&lt;/h2&gt;

&lt;p&gt;Uma pipeline é composta por processos interdependentes. Numa pipeline de ML podemos considerar o seguinte modelo conceitual:&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F44h56b3ggb59rw7j2tzr.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2F44h56b3ggb59rw7j2tzr.png" alt="Figura 2.0.0 - Diagrama simplificado de uma pipeline de IA³" width="800" height="114"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;ol&gt;
&lt;li&gt;Coleta de dados&lt;/li&gt;
&lt;li&gt;Limpar e processar dados&lt;/li&gt;
&lt;li&gt;Treinar modelo&lt;/li&gt;
&lt;li&gt;Testar modelo&lt;/li&gt;
&lt;li&gt;Teste de segurança/ Teste de caso de abuso&lt;/li&gt;
&lt;li&gt;Produção&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;&lt;strong&gt;Figura 2.0.0 -&lt;/strong&gt; Diagrama simplificado de uma pipeline de IA³&lt;/p&gt;

&lt;p&gt;As etapas 1. &lt;em&gt;Coleta de dados&lt;/em&gt; e 2. &lt;em&gt;Limpar e processar dados&lt;/em&gt; também são conhecidas como ETL (Extract, Transform and Load)⁴. &lt;/p&gt;

&lt;p&gt;A superfície de ataque é ampliada com um sistema de inteligência artificial como este integrado a aplicações web. Passamos a nos preocupar não somente com Sistemas Operacionais, Redes, Aplicações, mas também com as IAs integradas, que são aplicações...&lt;br&gt;
A pipeline nos dá a perspectiva de diferentes vetores de ataque com base na arquitetura de cada um de seus processos. Esses vetores de ataques representam ameaças para a confidencialidade, integridade e disponibilidade⁵ do sistema e de suas integrações. &lt;/p&gt;

&lt;h2&gt;
  
  
  🚨 Vulnerabilidades 🚨
&lt;/h2&gt;

&lt;p&gt;&lt;a href="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fz6px0fj559r67hcqlqrq.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fz6px0fj559r67hcqlqrq.png" alt="Figura 2.1.0 - GAIA Top 10: Diagrama simplificado dos vetores de ataque de uma pipeline de IA⁴" width="800" height="420"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;p&gt;G01 – Injeção de Prompt&lt;br&gt;
G02 – Exposição de Dados Sensíveis&lt;br&gt;
G03 – Falha na integridade dos dados&lt;br&gt;
G04 – Mau controle de acesso&lt;br&gt;
G05 – Filtragem insuficiente de prompts e alucinações&lt;br&gt;
G06 – Acesso Excessivo do Agente&lt;br&gt;
G07 – Ataques à Cadeia de Abastecimento&lt;br&gt;
G08 – Ataques de negação de serviço&lt;br&gt;
G09 – Registro insuficiente&lt;br&gt;
G10 – Implantação insegura voltada para o público&lt;/p&gt;

&lt;p&gt;&lt;strong&gt;Figura 2.1.0 -&lt;/strong&gt; GAIA Top 10: Diagrama simplificado dos vetores de ataque de uma pipeline de IA³&lt;/p&gt;

&lt;p&gt;Se você deseja se aprofundar mais no tópico de vulnerabilidades de IA do ponto de vista da Segurança Ofensiva, você pode dar uma olhadinha em:&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;&lt;a href="https://atlas.mitre.org/matrices/ATLAS"&gt;Mitre Atlas Matrix&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://owasp.org/www-project-top-10-for-large-language-model-applications/llm-top-10-governance-doc/LLM_AI_Security_and_Governance_Checklist-v1.pdf"&gt;LLM AI Cybersecurity &amp;amp; Governance Checklist&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://portswigger.net/web-security/llm-attacks"&gt;Web LLM attacks&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;&lt;a href="https://blog.google/technology/safety-security/googles-ai-red-team-the-ethical-hackers-making-ai-safer/"&gt;Google's AI Red Team: the ethical hackers making AI safer&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;

&lt;h2&gt;
  
  
  Protegendo IAs
&lt;/h2&gt;

&lt;p&gt;É preciso de especialistas em IAs para protegê-las. Especialistas que compõem a intersecção de Ciência de Dados e Segurança Ofensiva⁷, para inferir riscos com pioneirismo, antecipando ataques reais e, assim, converter pesquisas em medidas de segurança preventiva e automatizadas. É necessário utilizar IA para proteger IA⁸, escalando a segurança com Big Data numa cultura Data Driven.&lt;/p&gt;

&lt;p&gt;Para proteger um sistema baseado em IA ainda são necessárias as boas-práticas como sanitização de inputs e outputs, code review, proteção de APIs e DBs, automação da segurança na pipeline de desenvolvimento com execução de scans de SCA, SAST e DAST, registros direcionados ao SIEM para possibilitar a detecção de um ataque em tempo de execução. Para proteger IAs é necessário conhecer os meios pelos quais IAs podem ser exploradas. É preciso saber onde estão os dados sensíveis, classificá-los em níveis de segurança, usar criptografia nos canais de comunicações, realizar controle de acesso com autenticação multifator, monitorar aplicando observabilidade ao sistema. O modelo de IA precisa possuir fontes de treinamento confiáveis e sanitizadas, precisa ser escaneado para análise de malware, de credenciais e informações sensíveis, assim como precisa estar em conformidade em relação às normas de propriedade intelectual.⁹ E nós nem começamos a falar sobre vulnerabilidades baseadas em bias do modelo, que podem impactar na imagem de seus proprietários devido à reprodução de conteúdos preconceituosos e falsos.&lt;/p&gt;

&lt;p&gt;Algumas organizações que já estão há um tempinho trabalhando com IA comercialmente, já vêm construindo estratégias de segurança para IAs. O &lt;a href="https://services.google.com/fh/files/blogs/google_secure_ai_framework_approach.pdf"&gt;Secure AI Framework Approach&lt;/a&gt; é um guia de implementação da Google e, sugere:&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fsxhzsg48g39tmzd16hpi.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fsxhzsg48g39tmzd16hpi.png" alt="SAIF" width="800" height="312"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;ul&gt;
&lt;li&gt;Expandir fortes bases de segurança para o ecossistema de IA&lt;/li&gt;
&lt;li&gt;Ampliar a detecção e a resposta para trazer a IA para o universo de ameaças de uma organização&lt;/li&gt;
&lt;li&gt;Automatize as defesas para acompanhar as ameaças novas e existentes&lt;/li&gt;
&lt;li&gt;Harmonize os controles no nível da plataforma para garantir segurança consistente em toda a organização&lt;/li&gt;
&lt;li&gt;Adaptar controles para ajustar mitigações e criar ciclos de feedback mais rápidos para implantação de IA&lt;/li&gt;
&lt;li&gt;Contextualizar os riscos do sistema de IA nos processos de negócios circundantes&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;&lt;strong&gt;Figura 3.0.0 -&lt;/strong&gt; SAIF⁶&lt;/p&gt;

&lt;p&gt;Você também pode se interessar por &lt;a href="https://nvlpubs.nist.gov/nistpubs/ai/NIST.AI.100-1.pdf"&gt;Artificial Intelligence Risk Management Framework (AI RMF 1.0)&lt;/a&gt; do NIST.&lt;/p&gt;

&lt;p&gt;&lt;a href="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fhoyag3j3kqlc58etlxc3.png" class="article-body-image-wrapper"&gt;&lt;img src="https://media.dev.to/cdn-cgi/image/width=800%2Cheight=%2Cfit=scale-down%2Cgravity=auto%2Cformat=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%2Farticles%2Fhoyag3j3kqlc58etlxc3.png" alt="AI Assistant - MonkeyUser" width="800" height="653"&gt;&lt;/a&gt;&lt;/p&gt;

&lt;h2&gt;
  
  
  Conclusão
&lt;/h2&gt;

&lt;p&gt;O time de Segurança da Informação precisa ser capaz de mapear os vetores de ataques de uma organização, calcular os riscos e implementar medidas preventivas. O objetivo é reduzir as falhas no sistema devido à erros de implementação ou má configuração, porém, temos a oportunidade de utilizar a Ciência de Dados para esta tarefa.&lt;br&gt;
É importante compreendermos melhor sistemas de Machine Learning, pois assim como modelos de IA tendem a evoluir com treinamento, os ataques para essas e outras aplicações também evoluem e, por isso, esta é uma área de investigação estratégica que pode ser potencializada com a transdisciplinaridade.&lt;/p&gt;

&lt;h3&gt;
  
  
  Referências
&lt;/h3&gt;

&lt;p&gt;¹ &lt;a href="https://en.wikipedia.org/wiki/Artificial_intelligence"&gt;Artificial_intelligence&lt;/a&gt;&lt;br&gt;
² &lt;a href="https://doi.org/10.1787/623da898-en"&gt;OECD (2024), "Explanatory memorandum on the updated OECD definition of an AI system", OECD Artificial Intelligence Papers, No. 8, OECD Publishing, Paris&lt;/a&gt;&lt;br&gt;
³ &lt;a href="https://www.mandiant.com/resources/blog/securing-ai-pipeline"&gt;Securing AI Pipeline - Mandiant&lt;/a&gt;&lt;br&gt;
⁴ &lt;a href="https://en.wikipedia.org/wiki/Extract,_transform,_load"&gt;ETL&lt;/a&gt;&lt;br&gt;
⁵ &lt;a href="https://informationsecurity.wustl.edu/items/confidentiality-integrity-and-availability-the-cia-triad/"&gt;CIA Triad&lt;/a&gt;&lt;br&gt;
⁶ &lt;a href="https://services.google.com/fh/files/blogs/google_secure_ai_framework_approach.pdf"&gt;Secure AI Framework Approach&lt;/a&gt;&lt;br&gt;
⁷ &lt;a href="https://services.google.com/fh/files/blogs/google_ai_red_team_digital_final.pdf"&gt;Why Red Teams Play a Central Role in Helping Organizations Secure AI Systems&lt;/a&gt;&lt;br&gt;
⁸ &lt;a href="https://learn.microsoft.com/en-us/security/ai-red-team/"&gt;Microsoft AI Red Team&lt;/a&gt;&lt;br&gt;
⁹ &lt;a href="https://www.youtube.com/watch?v=pR7FfNWjEe8"&gt;How to Secure AI Business - IBM&lt;/a&gt;&lt;/p&gt;

</description>
      <category>wecoded</category>
      <category>machinelearning</category>
      <category>aisec</category>
      <category>security</category>
    </item>
  </channel>
</rss>
