BARREIRAS E PROTOCOLOS DE SEGURANÇA PARA A ÉTICA DA I.A.
DOI:
https://doi.org/10.31510/infa.v22i2.2323Palavras-chave:
IAG, Ética em IA, Protocolos de Segurança, Guardrails, Conformidade RegulatóriaResumo
Este artigo analisa protocolos de segurança e desafios éticos na implementação de Inteligência Artificial Generativa (IAG), com base em revisão teórica e testes empíricos. Conforme foi demonstrado plataformas como ChatGPT e Claude.ai mostraram eficácia no bloqueio de consultas explícitas sobre atividades perigosas, mas revelaram vulnerabilidades em abordagens indiretas. Foi apresentado o ciclo iterativo de desenvolvimento dos guardrails, abrangendo as fases de ensino, teste e compartilhamento, com iterações da OpenAI. Os resultados indicam que, embora empresas como Google e DeepSeek implementem monitoramento comportamental avançado, persistem lacunas críticas em contextos de saúde mental, conforme evidenciado no caso de suicídio de adolescentes. A avaliação metodológica validou a necessidade de frameworks adaptados a setores regulados, como o financeiro. Conclui-se que a efetividade dos protocolos varia entre plataformas, exigindo ciclos iterativos de aprimoramento, adaptação setorial e integração multidisciplinar para garantir segurança, conformidade e responsabilidade social. Por fim, a pesquisa reforça a urgência de frameworks dinâmicos que equilibrem inovação e proteção contra danos emergentes.
Downloads
Referências
CLAUDE.AI. Our Approach to User Safety. 02 set. 2025. Disponível em: /support.claude.com/en/articles/8106465-our-approach-to-user-safety>. Acesso em: 31 ago. 2025.
CORRÊA, N. K.; OLIVEIRA, N. F.; MASSMANN, D. F.: Sobre a eficiência da ética como ferramenta de governança da inteligência artificial. Veritas. v.67, n.1. 2022. Disponível em: . Acesso em: 20 mar. 2025.
DEEPSEEK. DeepSeek Privacy Policy. DeepSeek Privacy Policy. 2025a. Disponível em: /cdn.deepseek.com/policies/en-US/deepseek-privacy-policy.html>. Acesso em: 06 ago. 2025.
DEEPSEEK. DeepSeek Privacy Policy. Model Mechanism and Training Methods of DeepSeek. 2025b. Disponível em: /cdn.deepseek.com/policies/en-US/model-algorithm-disclosure.html >. Acesso em: 06 ago. 2025.
DONEDA, D. C. M. et. al. Considerações iniciais sobre inteligência artificial, ética e autonomia pessoal. Pensar – Revista de Ciências Jurídicas. Fortaleza, v.23, n.4, 20 dez. 2018. Disponível em: . Acesso em: 16 mar. 2025.
Equipe DAS. IA Generativa vs IA Preditiva. 24 abr. 2025b. Disponível em: /blog.dsacademy.com.br/ia-generativa-vs-ia-preditiva>. Acesso em: 26 jul. 2025.
Equipe DSA. Guardrails em IA Generativa – Segurança e Qualidade em Modelos de Linguagem. 13 mar. 2025a. Disponível em: /blog.dsacademy.com.br/guardrails-em-ia-generativa-seguranca-e-qualidade-em-modelos-de-linguagem>. Acesso em: 26 jul. 2025.
GOOGLE. Generative AI.17 dez. 2024. Disponível em: /policies.google.com/terms/generative-ai/use-policy>. Acesso em: 26 ago. 2025.
HAGENDORFF, T.: Mapping the Ethics of Generative AI: A Comprehensive Scoping Review. Alemanha, v.34, n.34, 17 set. 2024. Disponível em: /link.springer.com/article/10.1007/s11023-024-09694-w>. Acesso em: 23 mar. 2025.
LEITE, E. H.; RIBEIRO, D. F.: O papel transformador da inteligência artificial na segurança. Interface Tecnológica. Taquaritinga, v.20, n.1, 30 jun. 2023. Disponível em: . Acesso em: 16 mar. 2025.
MACEDO, Sandeco. Prompts em Ação vol 2 - Guardrails. São Paulo, 05 abr 2025. Disponível em: . Acesso em: 10 abr. 2025.
MARINHO, R.; et. al. 2023. Os Riscos de Segurança da IA Generativa. 2023. Disponível em: /cmsarquivos.febraban.org.br/Arquivos/documentos/PDF/Report Febraban – Os Riscos de Segurança da IA Generativa-compactado.pdf>. Acesso em: 06 ago. 2025.
MATTOS, A. E. N. P.; CURTO, L. V.; MUSSALLAM, M. S.: Inteligência Artificial e o Direito Digital. Revista PCC. Curitiba, v.13, n.2, 16 out. 2024. Disponível em: . Acesso em: 06 mar. 2025.
CAXEMIRA, C.: Suicídio adolescente e a busca de apoio na inteligência artificial. 29 ago. 2025. Disponível em: /oglobo.globo.com/saude/noticia/2025/08/29/suicidio-adolescente-e-a-busca-de-apoio-na-inteligencia-artificial.ghtml>. O GLOBO, Saúde. Acesso em: 02 set. 2025.
OPEN.AI. Safety. Hub de Avaliações de Segurança. 2025b. Disponível em: /openai.com/pt-BR/safety/evaluations-hub>. Acesso em: 10 ago. 2025.
OPENAI. Safety. Segurança sempre. 15 ago.2025a. Disponível em: /openai.com/pt-BR/safety>. Acesso em: 10 ago. 2025.
PASSETTI, M.; OLIVEIRA, N.: Repensando a segurança da inteligência artificial com base na confiança: Proteção contra a discriminação algorítmica. Veritas. v.69, n.1. 2024. Disponível em: /revistaseletronicas.pucrs.br/veritas/article/view/45911/28635>. Acesso em: 24 mar. 2025.
SAMPAIO, C. R.; SABBATINI, M.; LIMONGI, R.: Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa: Um guia prático para pesquisadores. São Paulo. Disponível em: /prpg.unicamp.br/wp-content/uploads/sites/10/2025/01/livro-diretrizes-ia-1.pdf >. Acesso em: 31 ago. 2025.
YOUSIF, N.: ChatGPT: o que diz a primeira ação judicial que acusa OpenAI de homicídio culposo. 27 ago. 2025. Disponível em: /bbc.com/portuguese/articles/c3wnj60p2pno >. BBC NEWS BRASIL, Acesso em: 02 set. 2025.
Downloads
Publicado
Edição
Seção
Licença
Direitos autorais (c) 2026 Revista Interface Tecnológica

Este trabalho está licenciado sob uma licença Creative Commons Attribution 4.0 International License.
Os direitos autorais dos artigos publicados pertencem à revista Interface Tecnológica e seguem o padrão Creative Commons (CC BY 4.0), que permite o remixe, adaptação e criação de obras derivadas do original, mesmo para fins comerciais. As novas obras devem conter menção ao(s) autor(es) nos créditos.

1.png)
1.png)