Notícias

Quais são os riscos culturais da IA generativa

Fonte: www.conjur.com.br/

08/02/2024

Algumas das repercussões mais proeminentes da transformação digital, incluindo implicações jurídicas, resultam da reconfiguração das dinâmicas de poder na contemporaneidade, impulsionada pela adaptação do sistema capitalista à incorporação de uma nova dimensão à realidade — a digital. Este fenômeno é conhecido por diferentes designações, como capitalismo de vigilância, economia informacional, de plataformas, entre outras.

Algumas das repercussões mais proeminentes da transformação digital, incluindo implicações jurídicas, resultam da reconfiguração das dinâmicas de poder na contemporaneidade, impulsionada pela adaptação do sistema capitalista à incorporação de uma nova dimensão à realidade — a digital. Este fenômeno é conhecido por diferentes designações, como capitalismo de vigilância, economia informacional, de plataformas, entre outras.

A problemática central reside no fato de que apenas um reduzido conjunto de organizações privadas figura como os mentores das tecnologias já indispensáveis, atuando como intermediários na conexão e na progressiva automação da dimensão digital, a exemplo dos ecossistemas digitais mais destacados na atualidade: Alphabet (Google), Meta, Microsoft, Amazon, Tesla, IBM, Apple, Tencent, Baidu e Alibaba. Logo, para termos presença online e para desempenharmos as atividades do cotidiano, necessariamente estaremos nos conectando a estas empresas.

Em razão dessas e de outras circunstâncias, poder econômico transforma-se em poderes outros de relevância social e de interesse coletivo para além do Estado, e plataformas com alcance global transformam-se nas infraestruturas vitais da sociedade.

Uma das mencionadas circunstâncias é o treinamento de inteligências artificiais generativas. Em sua maior parte, esse processamento de dados ocorre de forma centralizada em alguns países, como nos EUA e na China, carecendo da representatividade necessária para garantir a diversidade nos modelos algorítmicos, especialmente considerando o Sul Global. Em contrapartida, os LLMs (large language models, como também são conhecidas as IAs generativas) são disponibilizados em praticamente todas as jurisdições, tornando-se uma das tecnologias com a adesão mais rápida na história da humanidade.

Essa veloz difusão suscita preocupações sobre a possibilidade de particularidades e experiências, tanto em nível individual quanto coletivo e cultural, se perderem ou se homogeneizarem. Interessa-nos, nesta oportunidade, o aspecto macro, isto é, os riscos culturais da IA.

O Oxford Internet Institute publicou e entregou ao House of Lords Communications and Digital Select Committee do Reino Unido recentemente evidências acerca de aspectos técnicos e de governança a respeito de IAs generativas. No documento, um dos quatro riscos identificados foi “hegemonia cultural”, ao lado de “erosão da confiança”, “erosão do entendimento” e “potencial de uso duplo” por agentes maliciosos.

Sobre o aspecto que é relevante aqui, constou expressamente que “nas práticas atuais de desenvolvimento e implementação de LLMs, tecnologias utilizadas por milhões de pessoas são orientadas ou direcionadas pelos feedbacks de alguns trabalhadores não representativos ou imbuídas dos valores de alguns provedores de tecnologia”, o que gera um desalinhamento de valores, “especialmente se o desenvolvimento desses modelos for influenciado por um subset não representativo e não democraticamente responsável de pessoas”.

Sabe-se que cultura é uma palavra extremamente difícil de conceituar, até porque está em constante mutação. No senso comum, pode-se referir que é um complexo que engloba conjuntos de valores, crenças, normas, comportamentos, tradições, expressões artísticas, literárias e jurídicas, instituições sociais, a língua e as formas de comunicação e de vida que são compartilhadas, transmitidas e mantidas entre os membros de uma sociedade temporalmente, territorialmente e historicamente situada, conforme ensina Eagleton.

IA generativa
Especificamente no caso da IA generativa, é possível que um determinado modelo não consiga traduzir idiomas originários brasileiros ou referências culturais que são específicas ao povo brasileiro, de modo a “reescrever” a representação cultural a partir de uma hiper simplificação da realidade ou conforme estereótipos advindos do exterior e inseridos em códigos computacionais.

Isso é particularmente preocupante no que toca à distribuição de determinadas informações em detrimento de outras, muitas vezes por parâmetros opacos ou que se focam prioritariamente no cunho econômico, culminando em uma falta de diversidade na promoção de conteúdos e, em última análise, uma maior dificuldade de comunicação entre culturas diferentes.

A Unesco, nos trabalhos do Comitê Intergovernamental para a proteção e promoção da diversidade de expressões culturais, durante a sua décima segunda sessão em Paris, em 2018, referiu que, “em um mundo tecnológico dominado pelos Estados Unidos e China (…) existe o risco de fomentar uma dupla divisão, tanto tecnológica quanto criativa, resultando no declínio crescente dos países do Sul”, de forma que, se isso se intensificar sem a adoção de medidas mitigatórias, a “cultura corre o risco de se tornar, de uma vez por todas, apenas mais uma mercadoria – carente de identidade, valores e significado”.

Ausência da inclusão
Além disso, ainda apontam que “a ausência da inclusão da cultura nas estratégias nacionais de IA — tanto no norte quanto no sul — poderia significar que os países não teriam mais expressões culturais próprias, o que acabaria prejudicando o tecido social” — visão de colonialismo digital que é radicalmente oposto ao Objetivo do Desenvolvimento Sustentável da ONU número 11.4, relativo ao fortalecimento de esforços para proteger e salvaguardar o patrimônio cultural e natural do mundo em sua diversidade.

Outra evidência aparece nos resultados do estudo intitulado “The Data Provenance Initiative: A Large-Scale Audit of Dataset Licensing & Attribution in AI”, realizado por Longpre et al. Esses autores são experts em machine learning e profissionais do direito, os quais auditaram mais de 1800 bases de dados de texto que treinam IAs generativas. De acordo com as informações e o mapa que mede o quão bem cada país é representado pelas línguas faladas, “mesmo quando as nações do Global Sul parecem ter representação linguística, a fonte e o texto do dialeto da língua contida nesses conjuntos de dados quase sempre se originam de criadores e fontes da América do Norte ou do Europa.

Riscos globais
De uma maneira mais ampliada, a 19ª edição do Relatório de Riscos Globais, publicada em janeiro de 2024 por ocasião do Fórum Econômico Mundial, incluiu os resultados adversos advindos da Inteligência Artificial no ranking dos riscos mais severos para as economias e sociedades ao longo dos próximos dez anos. Segundo o documento, “a convergência entre o avanço tecnológico e as dinâmicas geopolíticas estão prestes a criar um novo conjunto de vencedores e perdedores tanto nas economias avançadas, quanto nas em desenvolvimento”.

Uma lacuna cada vez maior se formará entre os mercados que detêm a capacidade de desenvolver a tecnologia integrante do ecossistema da Inteligência Artificial, e aquelas que apenas consomem aplicações. O relatório ressalta o fato de a produção destas tecnologias estarem atualmente altamente concentradas em uma cadeia de fornecimento restrita a poucas empresas e países. Aponta que esta circunstância por si só é suficiente para deflagrar riscos significativos que se farão presentes ao longo dos próximos dez anos.

Por ora, os riscos apontados estão no campo das vulnerabilidades cibernéticas, da confiança demasiada em poucos provedores de serviços de nuvem, na busca de independência nacional pela dominância de toda a cadeia produtiva, dos impactos na privacidade e nos limites à competição.

A hegemonia cultural, apesar de não ser citada explicitamente como um risco da IA, está sinalizada: “O domínio do Norte Global no desenvolvimento da tecnologia poderá perpetuar preconceitos sociais, culturais e políticos, enquanto a resiliência aos riscos colocados pela IA, desde a desinformação até à utilização criminosa, poderá também ser menor no Sul Global”.

O relatório destaca ainda quais seriam as oportunidades de mitigação dos riscos identificados. O caminho passa pela necessária regulamentação que, apesar da insuficiência no sentido de impedir o avanço dos riscos globais, “pode estabelecer padrões para que o desenvolvimento tecnológico esteja alinhado às necessidades da sociedade”.

O letramento em IA também é mencionado como medida mitigatória, com especial atenção ao ensino público de crianças e adolescentes, mas também à formação de jornalistas e de tomadores de decisão nas esferas pública e privada.

No contexto do setor privado, os estudos relacionados à ética corporativa, em especial à ética em IA, surgem como um ponto de partida natural. Existe hoje uma significativa produção acadêmica, bem como de documentos empresariais que exploram a análise e o desenvolvimento de um arcabouço teórico e prático, que trata de questões éticas relacionadas à IA neste ambiente.

Os temas, segundo Chi et al., têm girado em torno dos vieses de gênero e raça encontrados nas novas tecnologias, algoritmos de busca por imagens, processos automatizados de tomada de decisão que repetem ou aumentam práticas discriminatórias.

Diversidade, equidade e inclusão
Dentro da ética corporativa relacionada à IA, as políticas de Diversidade, Equidade e Inclusão, que no jargão empresarial atende pela sigla DEI, foram objeto da pesquisa desenvolvida pelos recém citados autores, cujo resultado foi apresentado na 4a Conferência sobre Inteligência Artificial, Ética e Sociedade, em 2021. Nessa oportunidade, analisou-se um conjunto de documentos associados à ética para IA de três empresas de tecnologia (Microsoft, Google e Salesforce) com o objetivo de mapear a forma como essas organizações têm estruturado os conceitos de diversidade e inclusão em torno de suas aplicações de IA.

Os resultados apontam para uma reconfiguração dos conceitos que visam a instrumentalizar a diversidade e a inclusão como alavancas para a consecução de objetivos comerciais. Como consequência dessa instrumentalização, os autores observaram um deslocamento das questões de DEI do campo da promoção da mudança da cultura organizacional para um campo meramente técnico. Dessa forma, o embaçamento que o foco na técnica e na engenharia de produtos e serviços com IA provoca é o afastamento de reflexões mais profundas sobre os modelos de negócios e sobre regulamentação, inclusive nos impactos culturais.

No mesmo sentido, a ênfase sobre as questões técnicas posiciona as empresas como socialmente atuantes e preocupadas com a ética em IA, mas transfere a responsabilidade de lidar com os efeitos de seus produtos e serviços para seus consumidores. Nas palavras dos autores: “Com essa lógica, as empresas e os engenheiros não são responsáveis pelos resultados éticos do mundo real. Resultados éticos do mundo real para os quais seus conhecimentos e ferramentas contribuem.” No entanto, ainda que os documentos analisados apontem para uma desconexão com a regulamentação, não há dúvidas acerca do entrelaçamento entre ética em IA e a lei.

Riscos culturais
Voltando aos riscos culturais da inteligência artificial, sobretudo aqueles associados ao contexto do Sul Global pelos motivos já discutidos anteriormente, é bastante relevante acompanhar como as grandes empresas de tecnologia estão desenvolvendo as narrativas sobre ética e IA.

Primeiro pela influência que esses grandes atores corporativos já demonstraram ter sobre o mercado de maneira geral, da cadeia de fornecedores a legisladores. Segundo, pelo significado que as políticas corporativas podem ter no sentido de serem lidas como conformes à regulamentação. Por fim, pelo afastamento do arcabouço legal e regulatório identificado no conjunto de documentos analisados.

Na medida em que se nota a ausência de conceitos jurídicos a exemplo de raça, religião e cultura, bem como a ausência de menção ao já existente arcabouço regulatório, a probabilidade de desconsideração, por parte dos atores corporativos, dos riscos de hegemonia e homogeneização cultural não parece ser insignificante. Essa omissão torna ainda mais urgente a consideração da dimensão cultural na regulação pensada para IA, especialmente no que tange à proteção da diversidade da cultura brasileira.

Nossa Constituição
Em nosso contexto constitucional, a cultura aparece fortemente relacionada às identidades do povo brasileiro, especialmente quando o artigo 216 da Constituição dispõe que “constituem patrimônio cultural brasileiro os bens de natureza material e imaterial, tomados individualmente ou em conjunto, portadores de referência à identidade, à ação, à memória dos diferentes grupos formadores da sociedade brasileira”, nos quais se incluem as formas de expressão; os modos de criar, fazer e viver; as criações científicas, artísticas e tecnológicas; as obras, objetos, documentos, edificações e demais espaços destinados às manifestações artístico-culturais e os conjuntos urbanos e sítios de valor histórico, paisagístico, artístico, arqueológico, paleontológico, ecológico e científico.

O parágrafo primeiro do mesmo artigo vai adiante e atribui o dever ao Poder Público em colaboração com a comunidade a adoção de medidas de acautelamento e de preservação de nossas expressões culturais, de modo que, conforme o parágrafo 4º do artigo 216 da CF, os danos e ameaças ao patrimônio cultural deverão ser punidos na forma da lei.

Daí que prever a preservação cultural em uma estratégia brasileira sobre a Inteligência Artificial no país para o benefício de todos e do progresso nacional, de maneira a levar em consideração prioridades e valores locais, regionais e nacionais, é não somente uma necessidade e uma condição da sustentabilidade do emprego de um modelo de IA generativa, senão um imperativo também de cunho jurídico.

Estratégia brasileira
Nossa atual Estratégia Brasileira de Inteligência Artificial (Ebia) comporta críticas em diversos sentidos, inclusive neste. Há uma breve menção, no que toca à força de trabalho e capacitação, ao estímulo de composição diversificada de equipes de desenvolvimento em IA, quanto ao gênero, raça, orientação sexual e outros aspectos socioculturais. Restaram de fora importantes questões como quais medidas concretas seriam adotadas para tanto, assim como para garantir a soberania digital do país, particularmente na questão de bases e dados de treinamento de IAs generativas.

Nesse sentido, um dos principais desafios relacionados a essa tecnologia reside na necessidade de treiná-la em conjuntos de dados que genuinamente valorizem a diversidade, abrangendo uma variedade de perspectivas e culturas. Isso não apenas se refere aos dados, mas também abrange os próprios desenvolvedores e demais profissionais envolvidos ao longo do ciclo de criação da IA.

A Estratégia Brasileira de Inteligência Artificial deve ser revista para, além disso, possibilitar a criação de conjuntos de dados locais, abertos e de qualidade para treinamentos de IAs; a elaboração de uma infraestrutura computacional compartilhada entre diferentes stakeholders e o direcionamento de treinamentos de modelos conforme propósitos específicos de dada região, conforme sugere Cortiz.

Estudos específicos serão necessários para identificar a correlação de cada risco proveniente do treinamento e uso da IA generativa no que tange à cultura, sob pena de se perpetuar, com uma aparência inofensiva de usabilidade de linguagem natural, estruturas de saberes de outros agentes globais que não necessariamente levarão em conta as dimensões subjetivas das diversas culturas, acabando por homogeneizá-las em determinados aspectos.

Precisamos incluir os riscos culturais na pauta das discussões da IA no país: a cultura é um bem jurídico constitucionalmente tutelado, cabendo ao Poder Público e à comunidade a adoção de medidas efetivas a protegê-la e, ao setor privado, a sua promoção e valorização conforme os valores que fundaram nossa sociedade pós 1988.

Leia na ÍNTEGRA