BARREIRAS E PROTOCOLOS DE SEGURANÇA PARA A ÉTICA DA I.A.

Authors

DOI:

https://doi.org/10.31510/infa.v22i2.2323

Keywords:

IAG, Ética em IA, Protocolos de Segurança, Guardrails, Conformidade Regulatória

Abstract

Este artigo analisa protocolos de segurança e desafios éticos na implementação de Inteligência Artificial Generativa (IAG), com base em revisão teórica e testes empíricos. Conforme foi demonstrado plataformas como ChatGPT e Claude.ai mostraram eficácia no bloqueio de consultas explícitas sobre atividades perigosas, mas revelaram vulnerabilidades em abordagens indiretas. Foi apresentado o ciclo iterativo de desenvolvimento dos guardrails, abrangendo as fases de ensino, teste e compartilhamento, com iterações da OpenAI. Os resultados indicam que, embora empresas como Google e DeepSeek implementem monitoramento comportamental avançado, persistem lacunas críticas em contextos de saúde mental, conforme evidenciado no caso de suicídio de adolescentes. A avaliação metodológica validou a necessidade de frameworks adaptados a setores regulados, como o financeiro. Conclui-se que a efetividade dos protocolos varia entre plataformas, exigindo ciclos iterativos de aprimoramento, adaptação setorial e integração multidisciplinar para garantir segurança, conformidade e responsabilidade social. Por fim, a pesquisa reforça a urgência de frameworks dinâmicos que equilibrem inovação e proteção contra danos emergentes.

Downloads

Download data is not yet available.

References

CLAUDE.AI. Our Approach to User Safety. 02 set. 2025. Disponível em: /support.claude.com/en/articles/8106465-our-approach-to-user-safety>. Acesso em: 31 ago. 2025.

CORRÊA, N. K.; OLIVEIRA, N. F.; MASSMANN, D. F.: Sobre a eficiência da ética como ferramenta de governança da inteligência artificial. Veritas. v.67, n.1. 2022. Disponível em: . Acesso em: 20 mar. 2025.

DEEPSEEK. DeepSeek Privacy Policy. DeepSeek Privacy Policy. 2025a. Disponível em: /cdn.deepseek.com/policies/en-US/deepseek-privacy-policy.html>. Acesso em: 06 ago. 2025.

DEEPSEEK. DeepSeek Privacy Policy. Model Mechanism and Training Methods of DeepSeek. 2025b. Disponível em: /cdn.deepseek.com/policies/en-US/model-algorithm-disclosure.html >. Acesso em: 06 ago. 2025.

DONEDA, D. C. M. et. al. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Pensar – Revista de Ciências Jurídicas. Fortaleza, v.23, n.4, 20 dez. 2018. Disponível em: . Acesso em: 16 mar. 2025.

Equipe DAS. IA Generativa vs IA Preditiva. 24 abr. 2025b. Disponível em: /blog.dsacademy.com.br/ia-generativa-vs-ia-preditiva>. Acesso em: 26 jul. 2025.

Equipe DSA. Guardrails em IA Generativa – Segurança e Qualidade em Modelos de Linguagem. 13 mar. 2025a. Disponível em: /blog.dsacademy.com.br/guardrails-em-ia-generativa-seguranca-e-qualidade-em-modelos-de-linguagem>. Acesso em: 26 jul. 2025.

GOOGLE. Generative AI.17 dez. 2024. Disponível em: /policies.google.com/terms/generative-ai/use-policy>. Acesso em: 26 ago. 2025.

HAGENDORFF, T.: Mapping the Ethics of Generative AI: A Comprehensive Scoping Review. Alemanha, v.34, n.34, 17 set. 2024. Disponível em: /link.springer.com/article/10.1007/s11023-024-09694-w>. Acesso em: 23 mar. 2025.

LEITE, E. H.; RIBEIRO, D. F.: O papel transformador da inteligência artificial na segurança. Interface Tecnológica. Taquaritinga, v.20, n.1, 30 jun. 2023. Disponível em: . Acesso em: 16 mar. 2025.

MACEDO, Sandeco. Prompts em Ação vol 2 - Guardrails. São Paulo, 05 abr 2025. Disponível em: . Acesso em: 10 abr. 2025.

MARINHO, R.; et. al. 2023. Os Riscos de Segurança da IA Generativa. 2023. Disponível em: /cmsarquivos.febraban.org.br/Arquivos/documentos/PDF/Report Febraban – Os Riscos de Segurança da IA Generativa-compactado.pdf>. Acesso em: 06 ago. 2025.

MATTOS, A. E. N. P.; CURTO, L. V.; MUSSALLAM, M. S.: Inteligência Artificial e o Direito Digital. Revista PCC. Curitiba, v.13, n.2, 16 out. 2024. Disponível em: . Acesso em: 06 mar. 2025.

CAXEMIRA, C.: Suicídio adolescente e a busca de apoio na inteligência artificial. 29 ago. 2025. Disponível em: /oglobo.globo.com/saude/noticia/2025/08/29/suicidio-adolescente-e-a-busca-de-apoio-na-inteligencia-artificial.ghtml>. O GLOBO, Saúde. Acesso em: 02 set. 2025.

OPEN.AI. Safety. Hub de Avaliações de Segurança. 2025b. Disponível em: /openai.com/pt-BR/safety/evaluations-hub>. Acesso em: 10 ago. 2025.

OPENAI. Safety. Segurança sempre. 15 ago.2025a. Disponível em: /openai.com/pt-BR/safety>. Acesso em: 10 ago. 2025.

PASSETTI, M.; OLIVEIRA, N.: Repensando a segurança da inteligência artificial com base na confiança: Proteção contra a discriminação algorítmica. Veritas. v.69, n.1. 2024. Disponível em: /revistaseletronicas.pucrs.br/veritas/article/view/45911/28635>. Acesso em: 24 mar. 2025.

SAMPAIO, C. R.; SABBATINI, M.; LIMONGI, R.: Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: Um guia prático para pesquisadores. São Paulo. Disponível em: /prpg.unicamp.br/wp-content/uploads/sites/10/2025/01/livro-diretrizes-ia-1.pdf >. Acesso em: 31 ago. 2025.

YOUSIF, N.: ChatGPT: o que diz a primeira ação judicial que acusa OpenAI de homicídio culposo. 27 ago. 2025. Disponível em: /bbc.com/portuguese/articles/c3wnj60p2pno >. BBC NEWS BRASIL, Acesso em: 02 set. 2025.

Published

2025-12-20

How to Cite

ROSATO, Nayane; LUCCA FILHO, João de. BARREIRAS E PROTOCOLOS DE SEGURANÇA PARA A ÉTICA DA I.A. Revista Interface Tecnológica, Taquaritinga, SP, v. 22, n. 2, p. 970–982, 2025. DOI: 10.31510/infa.v22i2.2323. Disponível em: https://revista.fatectq.edu.br/interfacetecnologica/article/view/2323. Acesso em: 3 may. 2026.