Em comunicado conjunto divulgado no domingo (6), o grupo BRICS defendeu o desenvolvimento da inteligência artificial (IA) com código aberto, enfatizando o compartilhamento global de tecnologias e conhecimentos. Este documento, o primeiro de três compromissos assumidos na Cúpula de Líderes realizada no Rio de Janeiro, estabelece diretrizes para o acesso equitativo à IA, visando orientar a atuação conjunta do grupo em fóruns multilaterais, especialmente em relação às potências econômicas dominantes no setor tecnológico.
A declaração destaca a cooperação internacional como crucial para expandir o acesso a tecnologias baseadas em IA e componentes críticos, além de eliminar obstáculos ao financiamento de pesquisa e inovação. A questão da propriedade intelectual também é central, reconhecendo a necessidade de um equilíbrio entre direitos autorais, transparência e responsabilidade, protegendo o interesse público e facilitando a transferência internacional de tecnologia, em conformidade com as legislações nacionais e o direito internacional.
Outro ponto-chave é a governança da IA. O BRICS propõe a Organização das Nações Unidas (ONU) como o centro da estrutura global de regulamentação, garantindo a participação de países em desenvolvimento nas decisões e o acesso igualitário aos avanços tecnológicos. Esta abordagem multilateral visa reduzir riscos, facilitar a troca de políticas e fomentar inovação de forma inclusiva, propondo mecanismos regulatórios que assegurem os direitos e obrigações de Estados, empresas e usuários, de acordo com as leis nacionais e acordos internacionais.
A declaração aborda os impactos ambientais e sociais da IA, especialmente no mercado de trabalho. Embora reconhecendo os benefícios potenciais, como aumento da produtividade e geração de empregos, alerta para riscos como a precarização do trabalho, substituição de postos e ameaças à dignidade dos trabalhadores. A declaração também chama a atenção para os vieses algorítmicos que geram discriminação, com mulheres, minorias, pessoas com deficiência e grupos vulneráveis sendo os mais afetados por sistemas de IA treinados com dados tendenciosos. Para mitigar isso, o grupo propõe ações interdisciplinares para garantir padrões éticos e maior explicabilidade dos modelos.
Finalmente, o documento alerta para os perigos da desinformação, como a criação de conteúdos falsos realistas capazes de manipular a opinião pública, incitar instabilidades sociais e minar a confiança nas instituições. Como resposta, sugere maior investimento em educação midiática e estratégias de comunicação local, incluindo o desenvolvimento de ferramentas para identificação rápida de notícias falsas, a promoção da alfabetização digital e o fortalecimento da capacidade crítica dos cidadãos.