• English
Logo Logo
  • Home
  • Quem Somos
  • Nossas Soluções
    • Digital Delivery Center
    • Digital Sustaining Center (AMS)
    • Squads & Resources Center
    • Active Intelligence
  • Kron na Mídia
  • Blog
  • Contato
  • Carreiras

Contact Info

  • Email Info@gmail.com
  • Phone +123 456 7890
  • Office Hours Sat - Wed : 8:00 - 4:00

Additional Links

  • Active Intelligence
  • Blog
  • Carreiras
  • Contato
  • Digital Delivery Center
  • Digital Sustaining Center (AMS)
  • Home
  • Kron na Mídia
  • Nossas Soluções
  • Obrigado!
  • Política de Privacidade
  • Quem Somos
  • Services Single
  • Squads & Resources Center
  • Teste

Connect With Us

Evolução da IA: preocupações éticas, de segurança e de governança

  • Home
  • Interna Blog
evolução da IA: preocupações éticas, de segurança e de governança
abril 3 2025
  • CHATBOT
  • INOVAÇÃO
  • INTELIGÊNCIA ARTIFICIAL
  • TRANSFORMAÇÃO DIGITAL

A Inteligência Artificial (IA) tem avançado em uma grande velocidade, oferecendo cada vez mais opções de assistentes virtuais para a sociedade e gerando interesse de adoção às mais variadas áreas. 

A IA está cada vez mais presente e integrada às nossas vidas, não só pelos assistentes virtuais, mas também através dos algoritmos de recomendação, ferramentas de automação ou modelos generativos como o ChatGPT, Gemini, Copilot etc.  

Entretanto, à medida que a tecnologia evolui, o nível de interações controladas por IA com seres humanos e até mesmo entre máquinas expandirá significativamente, o que, consequentemente, traz uma grande preocupação com os impactos éticos, riscos de segurança e a necessidade urgente de governança responsável. 

Segundo a OutSystems, esse cenário emergente fará com que as equipes de TI dediquem seus esforços para implementar mecanismos de segurança e de governança para trazer confiança e garantir que a IA generativa (GenAI) seja implementada de forma responsável, segura e em conformidade com as normas.  

Para a entidade, neste ano, um número cada vez maior de equipes de tecnologia implementará práticas de DevSecOps (desenvolvimento, segurança e operações) para gerenciar melhor os riscos e atenuar as ameaças em seus softwares. Conforme as empresas exploram o potencial da IA generativa, práticas de segurança e governança serão prioridade máxima para todos os times TI. 

Pensando na importância do tema, neste artigo, vamos explorar os principais pontos de atenção relacionados ao uso da IA e como empresas, governos e sociedade podem equilibrar inovação com responsabilidade. 

A Revolução da Inteligência Artificial 

Nos últimos anos, a IA deixou de ser apenas uma promessa futurista e se tornou uma ferramenta que vem transformando diversas esferas da sociedade. Hoje, principalmente nas redes sociais, os usuários comuns conseguem ter uma noção do poder e potencial da inteligência artificial devido à produção de conteúdos criativos. Mas a tecnologia vai muito além, auxiliando em: 

  • Diagnósticos médicos; 
  • Carros autônomos; 
  • Detecção de fraudes financeiras; 
  • Geração de imagens e textos; 
  • Decisões automatizadas em recursos humanos e crédito; 
  • E muito mais! 

Embora a IA seja extraordinária, com vantagens e grandes possibilidades reconhecidas, além de ser uma tendência a ser adotada em diversos segmentos, tanto na esfera pública como privada, essa expansão traz consigo uma grande responsabilidade, requerendo de empresas, governos e cidadãos controle, regulamentação e debate acerca do uso e futuro da tecnologia. 

Vamos compreender a seguir os desafios éticos, de segurança e de governança: 

Preocupações éticas:  

1 – Viés e Discriminação 

Inteligências artificiais são treinadas com grandes conjuntos de dados, garantir a qualidade das informações é fundamental para não criar uma base que contenha dados com vieses e preconceitos. 

Para ilustrar melhor a situação, imagine que uma empresa deseja contratar um profissional para uma vaga no departamento de TI, para isso, o RH opta por usar um sistema de recrutamento de IA que faz a seleção prévia dos candidatos para verificar a compatibilidade com a vaga. Caso os dados contenham preconceitos, a ferramenta reproduz – e até amplifica – os vieses contidos neles e pode acabar prejudicando candidatas mulheres ou de outras minorias, como pessoas LGBTQIAPN+, negras, indígenas, PcD (Pessoa com Deficiência), muçulmanas, nordestinas, entre outras. 

Outro ponto crítico é o uso de IA em decisões sensíveis, como concessão de crédito, admissões escolares ou sentenças judiciais – situações essas que envolvem N variáveis e a expertise de diferentes profissionais, não podendo ser delegadas apenas a uma máquina. 

Para evitar que situações do tipo ocorram, é recomendado: 

  • Auditoria de algoritmos; 
  • Diversidade nos dados de treinamento; 
  • Revisão humana em decisões automatizadas; 
2 – Privacidade e uso indevido de dados 

É de conhecimento geral que a IA depende de muitos dados para o seu treinamento, o problema: nem sempre os dados são coletados com o consentimento do usuário, ou são reutilizados para finalidades diferentes daquelas originalmente autorizadas, assim, caracterizando uso indevido. 

A coleta massiva de dados pessoais por sistemas de IA levanta discussões sérias sobre o consentimento, anonimato e uso indevido das informações. Levantando a reflexão: até onde vai o direito de coletar, armazenar e processar esses dados? 

Quando pensamos na combinação da IA + vigilância digital, temos um cenário em que governos e empresas podem: 

  • Monitorar comportamentos em tempo real (em redes sociais, no trânsito, em sites); 
  • Realizar reconhecimento facial e rastrear movimentos; 
  • Prever ações ou classificar indivíduos. 

Isso levanta sérias preocupações em termos de liberdades civis, anonimato e direito à privacidade, especialmente quando feito sem transparência, critérios claros ou supervisão judicial. 

Para garantir a privacidade dos usuários e o uso não indevido dos dados, a Lei Geral de Proteção de Dados Pessoais (LGPD) – Brasil – e o Regulamento Geral sobre a Proteção de Dados (GDPR) – Europa -, preveem que o usuário saiba: 

  1. Que dados estão sendo coletados; 
  2. A finalidade dos dados; 
  3. Por quanto tempo serão armazenados; 
  4. Quem terá acesso. 

Entretanto, na prática, nem sempre o usuário é plenamente protegido, em que, muitas vezes, o consentimento é obtido de forma genérica, ou compulsória. Por exemplo, quando obriga o indivíduo a aceitar os termos para continuar, ou por meio de contratos longos e pouco compreensíveis. 

3 – Falta de transparência (caixa-preta) 

Algoritmos complexos, como os de deep learning (aprendizado profundo), funcionam como “caixas-pretas” – termo usado para descrever sistemas de IA com processos internos não tão claros, em que não é possível entender o porquê de a ferramenta ter chegado em uma determinada resposta ou resultado. 

Dessa maneira, muitas vezes, nem os próprios desenvolvedores, conseguem trazer uma explicação satisfatória para esses fenômenos, já que os algoritmos são construídos com base em milhões – ou bilhões – de parâmetros ajustados automaticamente durante o treinamento com dados. 

Esse tipo de fenômeno é extremamente perigoso especialmente em casos que envolvem o uso de IA em situações como: 

Justiça criminal: uso de IA para prever reincidência de crimes, sem que os acusados saibam quais critérios influenciaram a decisão; 

Concessão de crédito ou seguro: quando uma pessoa é recusada, mas não consegue saber o porquê, ou se a ferramenta usou critérios com vieses; 

Recrutamento automatizado: como falado acima, os sistemas de triagem de currículos podem priorizar candidatos que atendem a determinados padrões enviesados, sem oferecer justificativas transparentes. 

Para que o sistema de IA não fique refém de situações de caixas-pretas, é fundamental que os desenvolvedores implementem: 

IA Explicável (Explainable AI – XAI): conjunto de técnicas e práticas que tem como objetivo tornar os modelos mais compreensíveis e menos propenso a erros. Para isso, pode ser usado modelos mais simples e interpretáveis, visualizações e métricas de importância das variáveis e ferramentas como LIME, SHAP ou saliency maps para verificar os fatores que influenciam a decisão; 

Auditorias algorítmicas: para verificar se há vieses, erros sistemáticos ou critérios discriminatórios nos modelos; 

Regulação da explicabilidade: LGPD e GDR já preveem o direito à explicação em decisões automatizadas. Enquanto a AI Act (Lei de Inteligência Artificial da União Europeia) também exige níveis proporcionais de explicabilidade conforme o risco do sistema; 

Documentação e transparência técnica: práticas como “datasheets for datasets” e “model cards” permitem documentar a origem, o propósito, as limitações e os riscos dos modelos de IA. 

Preocupações com segurança  

1 – Riscos técnicos 

Nem sempre os sistemas de IA reagem como esperado, principalmente quando operam em ambientes dinâmicos ou com dados incompletos. Por exemplo: 

  • Carros autônomos que interpretam mal uma sinalização e causam acidentes; 
  • Robôs industriais que não reconhecem a presença humana em uma área de risco; 
  • IA generativa que “alucina” – ou seja, inventa fatos ou informações como se fossem verdadeiras. 

Além disso, muitos sistemas são vulneráveis aos chamados ataques adversariais (ou adversarial attacks) – técnicas que enganam modelos de IA, especialmente os de aprendizado de máquina (machine learning), alterando os dados de entrada de forma intencional, de modo que o sistema cometa um erro de classificação ou comportamento sem que os usuários percebam alguma mudança. 

Outros riscos técnicos que também se deve ficar atento é a tomada de decisão por sistemas autônomos sem supervisão humana e a operação de vários sistemas de IA simultaneamente, como em mercados financeiros ou redes elétricas inteligentes, que podem ocasionar consequências indesejadas – principalmente em contextos de alto impacto -, e levar a falhas em cascata ou colapsos sistêmicos. 

2 – Uso malicioso  

A sofisticação dos modelos de IA chamou a atenção não só do mundo corporativo como também de criminosos, que passaram a contar com uma ferramenta robusta para a aplicação de golpes. Métodos como Deepfakes (edição automatizada de imagens, em que se coloca o rosto e a voz de uma pessoa no corpo de outra), fraudes automatizadas e manipulação de informações são algumas das artimanhas usadas por cibercriminosos para enganar usuários e roubar não apenas dinheiro, mas também informações pessoais e bancárias. 

Diante disso, a evolução da segurança cibernética em conjunto com a IA se faz mais essencial do que nunca. É preciso garantir que os modelos não possam ser manipulados, explorados ou usados fora de controle. 

3 – Criação de uma Superinteligência e perda de seu controle 

Parece coisa de filmes e livros de ficção científica, mas esta é uma preocupação séria levantada por pesquisadores e debatida em comunidades de IA. Os cientistas alertam para o risco de criação de IAs superinteligentes que não compartilhem dos ideais humanos e passem a tomar decisões por conta própria. 

Nomes como Elon Musk (CEO da Tesla, SpaceX, Neuralink e outras empresas) e o pesquisador Stuart Russell, autor do livro Artificial Intelligence: A Modern Approach — considerada a obra mais usada no ensino de IA no mundo -, defendem a criação de inteligências artificiais alinhadas aos interesses humanos, pois a criação de máquinas que não tenham como objetivo o bem-estar da humanidade podem trazer resultados desastrosos. 

Preocupações com governança 

Como regular e direcionar o uso responsável da IA? 

Com o avanço veloz da inteligência artificial, a elaboração de normas, processos e instituições que orientem o uso responsável da IA se tornou uma necessidade global – e um dos maiores desafios da atualidade. 

A criação de uma legislação para a inteligência artificial não é uma tarefa fácil, envolvendo uma série de questões que dificultam a criação de um estatuto que contemplem não só as particularidades da ferramenta, mas também satisfaça os desenvolvedores e usuários. Dentre os principais desafios, temos: 

  • Falta de um padrão global: cada país está criando a sua própria legislação, o que gera fragmentação e insegurança jurídica para empresas e desenvolvedores; 
  • Velocidade de inovação x tempo da regulação: a tecnologia evolui constantemente, o que faz com que as leis não consigam acompanhar a sua evolução; 
  • Poder concentrado em poucas empresas: muitas inovações estão sob a posse de poucas empresas privadas, que nem sempre operam com transparência. 

Dentre as iniciativas que visam regulamentar a IA, temos: 

  • O AI Act da União Europeia, que está liderando os esforços regulatórios para classificar os riscos e exigir responsabilidades das empresas; 
  • A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO), a Organização para Cooperação e Desenvolvimento Econômico (OCDE) e a Organização das Nações Unidas (ONU) estão propondo diretrizes éticas e mecanismos de cooperação internacional. 
  • Muitas empresas de tecnologia estão criando códigos de conduta internos e estabelecendo laboratórios de ética para avaliar impactos. 

Mas você deve estar se perguntando: e no Brasil? Quando o assunto é regulamentação da IA, o país ainda carece de avanços significativos, visto que ainda não temos: padrões técnicos nacionais para a tecnologia, agências reguladoras específicas e diretrizes claras para IA generativa. 

Até o momento, os usuários e empresas podem contar com a LGPD, que protege dados pessoais e impõe limites ao uso automatizado, e aguardar o avanço da PL 21/2020, Projeto de Lei sobre o uso ético da IA, que está tramitando no Congresso 

Contudo, é importante lembrar que para que os projetos de governança de IA deem certo, eles precisam ser multissetoriais, transparentes, inclusivos e globais, além de contar com a participação ativa de governos, empresas, academia e sociedade civil. 

Conclusão: inovação com responsabilidade 

A inteligência artificial é uma tecnologia que veio para ficar, lutar contra ela é em vão, visto que a sua capacidade de transformação é algo nunca visto antes e que continuará revolucionando não só o mundo coorporativo como a humanidade.  

Mas isso não significa que devemos fechar os olhos, é dever de desenvolvedores, gestores, legisladores e cidadãos garantir que a tecnologia: 

  • Respeite direitos humanos; 
  • Seja auditável e transparente; 
  • Tenha limites e responsabilidades bem definidas. 

A discussão sobre ética, segurança e governança da IA não é um obstáculo ao progresso, mas uma condição fundamental para que a tecnologia seja usada de forma justa, segura, sustentável e responsável. 

A evolução da IA é inevitável, mas o caminho que ela seguirá dependerá das escolhas do coletivo – governos, empresas, pesquisadores e sociedade civil. O desafio não é conter a inovação, mas conduzi-la com consciência, empatia e visão de longo prazo. 

 

 

 

 

Post Anterior Próximo Post

Posts recentes

  • Evolução da IA: preocupações éticas, de segurança e de governança
  • A importância da Análise Preditiva na Inteligência Ativa Analítica e Generativa
  • 5 inteligências artificiais para usar em 2025 
  • CES 2025: 4 tecnologias inovadoras reveladas no evento
  • Como Avaliar o Desempenho de Serviços de Sustentação de TI: método e métricas

Arquivos

  • abril 2025
  • março 2025
  • fevereiro 2025
  • janeiro 2025
  • dezembro 2024
  • novembro 2024
  • outubro 2024
  • setembro 2024
  • agosto 2024
  • julho 2024
  • junho 2024
  • maio 2024
  • abril 2024
  • março 2024
  • fevereiro 2024
  • janeiro 2024
  • dezembro 2023
  • novembro 2023
  • outubro 2023
  • setembro 2023
  • agosto 2023
  • julho 2023
  • junho 2023
  • maio 2023
  • agosto 2022
  • junho 2022
  • maio 2022
  • junho 2021
  • maio 2021
  • abril 2021
  • março 2021
  • fevereiro 2021
  • janeiro 2021
  • dezembro 2020
  • novembro 2020
  • outubro 2020
  • setembro 2018
  • julho 2018

Categorias

  • Active Intelligence
  • AM’s
  • Analysis
  • APPS
  • Atrificial
  • BIG DATA
  • Blockchain
  • CHATBOT
  • DESIGN THINKING
  • Digital Deilvery Center
  • EXPERIÊNCIA DO CLIENTE
  • FÁBRICA DE SOFTWARE
  • INOVAÇÃO
  • INTELIGÊNCIA ARTIFICIAL
  • IoT
  • LINGUAGEM NATURAL
  • METODOLOGIA ÀGIL
  • SEM CATEGORIA
  • Squads
  • TRANSFORMAÇÃO DIGITAL
  • UI/UX

Tags

agrodigital alocação de profissionais ams BIG DATA Blockchain Cadeia de suprimentos CHATBOT CHATGPT dados FinOps para SAP FÁBRICA DE SOFTWARES gestão na agricultura IA generativa INOVAÇÃO INTELIGÊNCIA ARTIFICIAL IoT SAP BTP setor de energia SOFTWARE DELIVERY CENTER squad ágil Supply Chain TRANSFORMAÇÃO DIGITAL UI/UX web 3.0
Logo

A Kron Digital é uma empresa com maestria em desenvolver soluções end-to-end nas mais diversas tecnologias para diferentes modelos de estratégia. Queremos te ajudar a superar os desafios e estabelecer uma Estratégia Digital sólida, focada em resultados. Vamos encarar juntos esta jornada utilizando o melhor direcionamento digital através de App, Inteligência Artificial, Big Data, Web e IoT. Estamos aqui pra te ajudar a ir além.

Links

  • Home
  • Quem Somos
  • Digital Delivery Center
  • Digital Sustaining Center (AMS)
  • Squads & Resources Center
  • Active Intelligence
  • Kron na Mídia
  • Blog
  • Contato
  • Política de Privacidade

Escritórios

  • São Paulo: (11) 2373-5008
  • Rio de Janeiro: (21) 2221-0641
  • Curitiba: (41) 3532-3799
  • Belo Horizonte: (31) 2626-3271
  • Orlando: (+1) 407 203-388
  • E-mail: contato@kron.digital
  • Logo
  • Logo

© 2025 Kron Digital. All Rights Reserved.

  • Home
  • Quem Somos
  • Nossas Soluções
  • Kron na Mídia
  • Blog