SEGURANÇA EM SISTEMAS DE INTELIGÊNCIA ARTIFICIAL E MACHINE LEARNING ANÁLISE DE ATAQUES ADVERSARIAIS E ESTRATÉGIAS DE DEFESA

Autores

  • Igor Luigi Fracarolli Faculdade de Tecnologia de Taquaritinga (Fatec) - Taquaritinga - São Paulo - Brasil , Faculdade de Tecnologia de Taquaritinga (Fatec) - Taquaritinga - São Paulo - Brasil
  • Robson Eduardo Galloppi Faculdade de Tecnologia de Taquaritinga (Fatec) - Taquaritinga - São Paulo - Brasil , Faculdade de Tecnologia de Taquaritinga (Fatec) - Taquaritinga - São Paulo - Brasil

DOI:

https://doi.org/10.31510/infa.v22i1.2240

Palavras-chave:

Inteligência Artificial, Machine Learning, Segurança, Ataques adversariais, Estratégias de defesa

Resumo

A Inteligência Artificial (IA) e o Machine Learning (ML) têm desempenhado papéis fundamentais na transformação digital, sendo amplamente utilizados em setores como saúde, finanças e transporte. Contudo, essas tecnologias apresentam vulnerabilidades significativas, especialmente em relação a ataques adversariais, que manipulam dados de entrada para comprometer a eficácia e segurança dos modelos. Além disso, o uso de dados enviesados para o treinamento de algoritmos pode perpetuar preconceitos e desigualdades, trazendo à tona preocupações éticas e sociais. Este trabalho tem como objetivo analisar os impactos de ataques adversariais em sistemas de IA e ML, bem como propor estratégias de defesa para garantir a confiabilidade e a segurança dessas tecnologias. Paralelamente, busca-se explorar os desafios éticos relacionados ao uso de dados enviesados, sugerindo diretrizes que promovam maior equidade e responsabilidade. A pesquisa adota uma metodologia bibliográfica, baseada na análise de artigos científicos, relatórios técnicos e estudos de casos. Essa abordagem permite identificar vulnerabilidades, exemplificar ataques adversariais e avaliar as soluções existentes para mitigar seus efeitos. Este trabalho baseia-se em autores que exploram o uso de inteligência artificial em diversas áreas, como linguagem natural (VASWANI et al., 2017; DEVLIN et al., 2019), reconhecimento de fala (RAVANELLI et al., 2020), agricultura (SILVA et al., 2018) e veículos autônomos (FENG et al., 2021), a vulnerabilidade a ataques adversariais (HOSPEDALES et al., 2020). Destacam-se as contribuições dos Transformers e do aprendizado profundo (OTTER et al., 2020). Os resultados indicam que medidas como a utilização de algoritmos robustos, a diversificação dos dados de treinamento e a implementação de testes adversariais contínuos são eficazes na proteção de sistemas de IA e ML. Além disso, destaca-se a necessidade de regulamentações que assegurem a transparência e a ética no desenvolvimento dessas tecnologias. Conclui-se que, para garantir a segurança e a equidade, é essencial combinar estratégias técnicas com diretrizes éticas, promovendo a adoção responsável de IA e ML.

Downloads

Os dados de download ainda não estão disponíveis.

Referências

ALBUQUERQUE, Bárbara Beatriz Fernandes. A revolução na prática clínica: O impacto da Inteligência Artificial (IA) nas aplicações radiológicas e diagnóstico médico. 2023. Trabalho de Conclusão de Curso. Universidade Federal do Rio Grande do Norte.

COLODETTI, Pedro Vinicius Baptista. Matemática aplicada à inteligência artificial: a base fundamental do machine learning. 2022.

CUSTÓDIO, Elaine Cristina Pereira. Aplicações de inteligência artificial em entidades fechadas de previdência complementar. 2021.

DEVLIN, J. et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv:1810.04805, 2019.

FENG, S. et al. Intelligent driving intelligence test for autonomous vehicles with naturalistic and adversarial environment. Nat Commun, v.12, p.748, 2021. DOI: https://doi.org/10.1038/s41467-021-21007-8

GIL, A. C. (2019). Como elaborar projetos de pesquisa. São Paulo: Atlas.

HOSPEDALES, T. et al. A. Meta-Learning in Neural Networks: A Survey. arXiv:2004.05439, 11 Abr. 2020.

LECUN, Y. et al. Deep learning. Nature v.521, p.436-44, 2015 DOI: https://doi.org/10.1038/nature14539

MARCONI, Marina de Andrade; LAKATOS, Eva Maria. Fundamentos de metodologia científica. 8. ed. São Paulo: Atlas, 2019.

OTTER, D. W. et al. A survey of the usages of deep learning for natural language processing. IEEE Transactions on Neural Networks and Learning Systems, v.32, n.2, p.604- 24, 2020. DOI: https://doi.org/10.1109/TNNLS.2020.2979670

RANGEL NETO, Digenaldo de Brito. Detecção de ataques DDoS na camada de aplicação: um esquema com aprendizado de máquina e Big Data. 2025. Dissertação de Mestrado. DOI: https://doi.org/10.5753/wgrs.2025.8757

RAVANELLI, M. et al. Multi-task self-supervised learning for robust speech recognition. In: ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Barcelona, 2020. p.6989-93. DOI: https://doi.org/10.1109/ICASSP40776.2020.9053569

SILVA, Giovanni Cimolin da et al. Detecção e contagem de plantas utilizando técnicas de inteligência artificial e machine learning. 2018.

STRELKOVA, O. Three types of artificial intelligence. 2017.

TORFI, A. et al. Natural language processing advancements by deep learning: A survey. arXiv preprint arXiv:2003.01200 (2020).

VASWANI, Ashish; SHAZEER, Noam; PARMAR, Niki; USZKOREIT, Jakob; JONES, Llion; GOMEZ, Aidan; KAISER, Łukasz; POLOSUKHIN, Illia. Attention is all you need. NeurIPS, [S. l.], 2017.

ZHANG, Yizhe; SUN, Siqi; GALLEY, Michel; CHEN, Yen-Chun; BROCKETT, Chris; GAO, Xiang; GAO, Jianfeng; LIU, Jingjing; DOLAN, Bill. DialoGPT: Large-Scale Generative Pre-training for Conversational Response Generation. ACL, system demonstration, [S. l.], p. 1-10, 2020. DOI: https://doi.org/10.18653/v1/2020.acl-demos.30

Downloads

Publicado

24/10/2025

Edição

Seção

Tecnologia em Informática

Como Citar

FRACAROLLI, Igor Luigi; GALLOPPI, Robson Eduardo. SEGURANÇA EM SISTEMAS DE INTELIGÊNCIA ARTIFICIAL E MACHINE LEARNING ANÁLISE DE ATAQUES ADVERSARIAIS E ESTRATÉGIAS DE DEFESA. Revista Interface Tecnológica, Taquaritinga, SP, v. 22, n. 1, p. 158–169, 2025. DOI: 10.31510/infa.v22i1.2240. Disponível em: https://revista.fatectq.edu.br/interfacetecnologica/article/view/2240. Acesso em: 5 dez. 2025.