Democratizar acesso à informação estratégica é oportunidade da IA, aponta Fernanda Bayeux

Gerente de governança e governance officer da Melhoramentos declarou em bate-papo sobre inteligência artificial para o Blog IBGC

  • 02/06/2025
  • Victoria Andrade
  • Bate-papo

A inteligência artificial se configura como um tema prioritário para debate nas agendas dos conselhos em 2025 — é o que aponta a pesquisa Perspectiva dos conselheiros e executivos – ambiente de negócios e governança corporativa publicada pelo IBGC em fevereiro deste ano. Por outro lado, ainda segundo a mesma publicação, o tema também integra o escopo de pautas que, na visão dos respondentes, há menos preparo por parte dos conselhos para discutir.

Fernanda Bayeux, gerente de governança e governance officer da Melhoramentos, conversou com o Blog IBGC sobre o tema no ambiente corporativo e compartilhou insights importantes. Confira abaixo.

Como você enxerga o uso da inteligência artificial pelos conselhos de administração no Brasil? Há resistência?

Fernanda Bayeux: Não percebo resistência por parte dos conselheiros enquanto indivíduos. Muitos já utilizam ferramentas de inteligência artificial no dia a dia, como assistentes pessoais, seja para revisar documentos, interpretar relatórios financeiros e de riscos, ou mesmo para explorar cenários alternativos. A verdadeira questão, a meu ver — e que deve orientar nossa reflexão no âmbito do IBGC — é como os conselhos, enquanto órgãos colegiados, irão integrar a IA de forma estruturada para fortalecer sua atuação coletiva e estratégica.

Nesse sentido, ainda não observamos um movimento significativo dos órgãos de governança das empresas em direção a essa integração. Há diversas frentes em que o uso da IA já poderia estar aportando valor, por exemplo:

• Geração automatizada de resumos executivos a partir de materiais extensos encaminhados pela diretoria — vale lembrar que os pacotes de leitura para reuniões de conselhos e comitês frequentemente ultrapassam 300 páginas;

• Simulações estratégicas baseadas em cenários de mercado, ESG ou riscos emergentes, alimentadas com dados trazidos pela própria gestão;

• Supervisão de auditorias internas orientadas por IA, com foco na detecção preditiva de riscos operacionais ou regulatórios;

• Análise automatizada de potenciais conflitos de interesse, com base em histórico de decisões, vínculos societários e relacionamentos com stakeholders;

• Apoio ao processo de sucessão em conselhos e comitês, utilizando IA para cruzar competências, experiências e perfis comportamentais com as necessidades futuras da organização;

• Mapeamento do histórico de deliberações e decisões do colegiado, permitindo compreender como determinados temas foram tratados no passado e quais argumentos, riscos ou trade-offs foram considerados em contextos semelhantes.

Entretanto, uma adoção institucional plena exige clareza sobre riscos jurídicos, critérios éticos e segurança da informação — pontos que estamos estudando com profundidade na Comissão de GOs do IBGC. Nosso desafio é fomentar uma cultura de governança que incorpore a IA como aliada da diligência, da integridade e da capacidade crítica dos conselhos, sem renunciar à responsabilidade humana nas decisões.

Você tem experiência com o uso dessa ferramenta no ambiente de governança? Como foram os resultados?

Assim como muitos membros de conselhos, eu também tenho utilizado — com a chancela da minha área de TI — uma versão fechada de IA para apoiar a elaboração de atas. O meu sonho, no entanto, é ir além: gostaria de contar com uma ferramenta de IA que atuasse desde a gravação ou transcrição da reunião até a geração de um rascunho estruturado, que eu revisaria e ajustaria conforme os padrões do colegiado. Sabemos que a ata não é uma transcrição literal — ela é a consolidação do que é relevante para aquele conselho específico, respeitando nuances jurídicas, estratégicas e institucionais. Por isso, a supervisão humana continua sendo indispensável.

Outra funcionalidade que eu delegaria com tranquilidade à IA seria a integração de agendas dos conselheiros para facilitar o agendamento de reuniões — algo aparentemente simples, mas que consome horas de trabalho humano e exige alta coordenação. Ainda não disponho de uma ferramenta com esse nível de integração, mas é algo que estou discutindo internamente com a gestão. A grande pergunta, nesse caso, é: os conselheiros estariam dispostos a dar acesso às suas agendas pessoais para uma ferramenta de IA? E como garantir segurança e confidencialidade nesse processo?

Essas são algumas das reflexões que estamos conduzindo no Grupo de Trabalho de IA do IBGC. Nosso primeiro projeto será, justamente, um mapeamento completo do processo de produção de atas, atividade por atividade, para identificar pontos de apoio da IA, os riscos associados e estratégias para mitigá-los ou eliminá-los. A IA, neste sentido, pode auxiliar em etapas como:

• transcrição automatizada e identificação de temas-chave,
• sugestão de estruturas de ata baseadas em modelos anteriores,
• cruzamento de decisões com registros históricos e conflitos de interesse, extração de itens de ação, com geração de alertas e lembretes para acompanhamento,
• e até sinalização de atualizações necessárias em registros de governança, como logs de decisões e cadastros de riscos.

Naturalmente, todos esses usos exigem limites claros, supervisão humana e salvaguardas jurídicas e tecnológicas. A nossa crença na Comissão de GOs é de que os resultados desse mapeamento serão promissores — desde que a equipe compreenda que a IA é um apoio, não um substituto. Quando bem implementada, a IA reduz o tempo dedicado a tarefas operacionais e libera mais espaço para a análise crítica, estratégica e colegiada. Nesse contexto, o Governance Officer pode — e deve — atuar como agente de mudança, promovendo uma adoção responsável e qualificada da tecnologia no ambiente de conselhos.

De que forma a IA pode impactar a tomada de decisão nos Conselhos de Administração e quais são os riscos associados?

A inteligência artificial pode ampliar significativamente a capacidade crítica dos conselheiros, ao oferecer funcionalidades como resumos automatizados, análises comparativas de mercado, simulações de impacto e detecção de inconsistências — tanto entre o que é apresentado internamente pela gestão e os dados públicos, quanto em relação a informações já trazidas anteriormente. Com isso, a IA contribui para reduzir assimetrias de informação, ampliar a autonomia dos conselheiros e qualificar, de forma concreta, o nível dos debates nas instâncias de governança.

Paradoxalmente, um dos maiores riscos atualmente negligenciados é o de não utilizar IA. Essa omissão pode gerar defasagem frente aos padrões internacionais de diligência esperados de um administrador. Em conversas com colegas nos Estados Unidos, por exemplo, é evidente o avanço da interpretação no âmbito da Business Judgment Rule (BJR), de que conselheiros devem demonstrar que suas decisões foram tomadas de forma informada e razoável. Nesse contexto, deixar de consultar ferramentas de IA — quando amplamente disponíveis — pode, em breve, ser visto como falha no dever de diligência.

No Brasil, embora não exista um dispositivo equivalente à BJR, os artigos 153 e 159 da Lei das S.A. (Lei 6.404/76) estabelecem o dever de diligência e a responsabilização do administrador apenas em caso de dolo ou culpa. A jurisprudência nacional vem se aproximando do espírito da BJR ao reconhecer que decisões tomadas com boa-fé e base informacional adequada merecem proteção. Portanto, a omissão no uso responsável de tecnologias como a IA poderá, futuramente, ser interpretada como negligência, sobretudo se dela decorrerem prejuízos evitáveis.

Isso não significa ignorar os riscos reais envolvidos. O uso da IA exige atenção redobrada a questões como:

• segurança e confidencialidade de dados corporativos;
• vieses algorítmicos embutidos nos modelos, capazes de distorcer análises e reforçar desigualdades;
• risco de perda de accountability, especialmente quando decisões são delegadas à IA sem validação humana adequada.

O NIST (National Institute of Standards and Technology, EUA) alerta sobre os perigos da chamada “confiança cega” na IA. Os outputs dos sistemas podem parecer precisos e sofisticados, mas conter erros sutis com impactos jurídicos, reputacionais ou estratégicos relevantes. O documento “Artificial Intelligence Risk Management Framework (AI RMF 1.0)”, publicado em janeiro de 2023, é uma das referências mais robustas sobre o tema. Nele, o NIST afirma:

“AI-generated content may sound authoritative but be misleading, creating a false sense of confidence that leads to approval without deeper scrutiny.” — AI RMF 1.0, NIST, 2023

É exatamente aí que entra o fator humano como pilar insubstituível da governança: julgamento profissional, supervisão crítica e interpretação contextual continuam sendo indispensáveis, mesmo diante das soluções mais avançadas. O AI RMF propõe justamente essa abordagem equilibrada, defendendo princípios como explicabilidade, responsabilidade, mitigação de vieses, segurança e supervisão contínua ao longo de todo o ciclo de vida dos sistemas de IA.

Por fim, vale destacar que, no Brasil, a discussão pública sobre os riscos de não usar IA ainda é incipiente — mas este é, sem dúvida, um ponto crítico. O desafio colocado a conselhos e comitês é adotar a IA de forma estratégica e responsável, com supervisão humana, senso ético e visão de futuro, sem abrir mão da autonomia e da diligência que fundamentam a boa governança.

Que oportunidades você enxerga nesse cenário? Como os conselhos podem enfrentar essas barreiras?

Uma das maiores oportunidades trazidas pela inteligência artificial no contexto da governança é, na minha opinião, a democratização do acesso à informação estratégica. Com o apoio da IA, conselheiros de diferentes formações — inclusive aqueles com menos familiaridade técnica — passam a ter acesso facilitado a dados complexos, análises comparativas e simulações de cenários, o que eleva a qualidade da participação colegiada.

Essa mudança traz uma consequência direta sobre o perfil do conselheiro do futuro: não basta mais apenas ter acesso à informação — é preciso saber fazer as perguntas certas, interpretar tendências, identificar riscos e comunicar decisões com clareza e responsabilidade. A capacidade de questionamento estratégico, de leitura de contexto e de articulação entre tecnologia e propósito organizacional será cada vez mais valorizada.

Para que essa transformação seja efetiva, os conselhos de administração devem assumir um papel ativo. Algumas direções essenciais, conforme as discussões que temos realizado na Comissão de GOs, incluem:

•  Capacitação contínua dos conselheiros, com foco em alfabetização digital, ética algorítmica, regulação e novas tecnologias;
• Criação de estruturas de governança para IA, com diretrizes claras sobre ética, segurança da informação, compliance e uso responsável;
• Inclusão do tema da IA na pauta dos comitês permanentes, como auditoria, riscos, sustentabilidade ou inovação — garantindo acompanhamento transversal;
• Fomento a uma cultura organizacional onde a tecnologia seja percebida como alavanca de propósito, e não como ameaça ao status quo;

Nesse cenário, nós acreditamos, também, que emerge com força a figura do Governance Officer como vetor de mudança organizacional. Diante das dificuldades práticas de implementação da IA — que exigem articulação entre áreas, adaptação regulatória e construção de confiança — os GOs têm uma oportunidade ímpar de liderar esse processo.

Se muitas de nossas funções operacionais podem, sim, ser automatizadas por IA — como já começamos a observar —, isso não significa perda de relevância, embora esse seja um receio legítimo e frequentemente discutido entre colegas. Pelo contrário: esse cenário reforça a importância de estarmos à frente da curva, ampliando nosso repertório para incluir os fundamentos da governança de tecnologia, a compreensão dos modelos de IA, os riscos emergentes, e os critérios de accountability, explainability e impacto organizacional.

Ao dominar esses temas, o Governance Officer não apenas preserva sua posição, mas se reposiciona como figura estratégica, capaz de atuar na interseção entre inovação, integridade e tomada de decisão responsável.

Confira as últimas notícias do Blog do IBGC

03/06/2025

IBGC e Chapter Zero Brazil apresentam Semana da Governança Climática

02/06/2025

Democratizar acesso à informação estratégica é oportunidade da IA, aponta Fernanda Bayeux

30/05/2025

Saiba quais são os destaques em relações institucionais e governamentais

30/05/2025

Veja nota pública do IBGC sobre processos de renovação dos conselhos

29/05/2025

Praia de Boa Viagem é palco do Conexão Governança PE

29/05/2025

IBGC lança pesquisa sobre relatórios de sustentabilidade de companhias listadas