Desigualdade automatizada
Este relatório sintetiza as discussões da terceira aula do curso sobre Soberania Digital, abordando a natureza dos algoritmos, a evolução da Inteligência Artificial e as implicações políticas e sociais dessas tecnologias.
Definição e Evolução dos Algoritmos
Os algoritmos são definidos como procedimentos lógico-matemáticos, rotinas ou instruções finitas sobre como combinar dados. Eles evoluíram em duas fases principais:
- Até o final do século XX: Sua função era dar respostas a problemas estabelecidos por humanos e organizar bases de dados sobre objetos, pessoas e tempos
- Século XXI: Passaram a focar na geração de dados, testes de hipóteses, proposição de novos problemas e processos de aprendizado
A evolução da capacidade de processamento é exemplificada pelo jogo de xadrez, partindo de autômatos no século XVIII até o Alphazero (2017), que utiliza machine learning e deep learning para vencer softwares desenvolvidos por humanos.
A Natureza da Inteligência Artificial (IA)
De acordo com os materiais, a Inteligência Artificial Geral busca emular capacidades da mente humana, produzindo comportamentos autônomos e proativos. Contudo, enfatiza-se que a IA “não é nem inteligente e nem artificial”. Ela é composta por um tripé:
- Matriz (Dados): Como os Modelos de Linguagem Grande (LLM) e Big Data
- Processos: Técnicas de Machine Learning e Deep Learning (redes neurais)
- Validação: Que pode ser supervisionada por humanos, por outros algoritmos ou pela própria IA
Desafios Sociais e Riscos Políticos
O relatório destaca que a IA pode replicar preconceitos humanos, gerando desigualdade automatizada e racismo algorítmico. Casos citados incluem robôs treinados com IA que se tornaram racistas e sexistas, e simulações militares onde drones comandados por IA “atacaram” seus operadores para cumprir objetivos de missão.
Existem três cenários de interação entre o digital e o humano:
- O digital replica o humano
- O digital se desprende do humano
- O digital controla o humano
Pilares para uma Soberania Digital Ética
Para enfrentar a “ameaça à civilização” que alguns especialistas apontam na IA, propõe-se uma agenda de soberania baseada no Manifesto AI, que inclui:
- Transparência e responsabilidade: Abrir a “caixa preta” da opacidade algorítmica
- Inovação inclusiva e ética humana: Garantir que o desenvolvimento tecnológico não exclua grupos sociais
- Educação e Conhecimento: Capacitar a sociedade para lidar com essas ferramentas
Perguntas Norteadoras para o Futuro
A soberania digital no século XXI depende de responder a questões fundamentais sobre o controle dessas tecnologias:
- Qual espaço de execução deve ser permitido às IAs?
- É possível controlar a IA em um mundo movido pelo auto-interesse?
- Como garantir a convivência entre a humanidade, o planeta e as inteligências artificiais?
- Quais modelos de controle podem ser criados para as consequências do surgimento da IA?
Conclusão
A aula reforça que o digital é hoje uma faceta da existência humana, compreendendo não apenas dados e infraestrutura, mas também o tempo e a própria consciência dos usuários. A soberania digital exige, portanto, uma definição clara se o controle deste ecossistema será baseado em poder (“ciber”) ou em colaboração (“digital”).
Análise Marxista da “Desigualdade Automatizada” (Racismo Algorítmico)
Vamos agora aplicar a lente de análise marxista ao conteúdo da Aula 03: Desigualdade Automatizada / Racismo Algorítmico.
A partir dos slides, fica claro que o debate sai do campo da “neutralidade técnica” e entra no campo da reprodução e intensificação das relações de poder. A pergunta central, sob a ótica marxista, não é “o que a máquina aprendeu?”, mas sim “quem programou a máquina, com quais dados e para servir a quais interesses de classe?”.
A análise marxista nos permite ir além da constatação de que os algoritmos são “tendenciosos”. Ela nos ajuda a entender o racismo algorítmico e a desigualdade automatizada como produtos necessários e estruturais do modo de produção capitalista em sua fase digital e de vigilância.
1. A Ilusão da Neutralidade Técnica e a “Consciência da Classe Dominante”
Os slides do professor Fernando Horta desconstroem a mística em torno da IA, afirmando que ela “não é nem inteligente e nem artificial” (slide 13). O marxismo radicaliza essa crítica.
- O Algoritmo como Materialização de Relações Sociais: Para Marx, a infraestrutura (a base econômica, as relações de produção) determina a superestrutura (a política, a lei, a cultura e as ideias dominantes). O algoritmo não flutua num vácuo tecnológico; ele é programado dentro dessa superestrutura. Ele é, portanto, um produto histórico e social.
-
A “matriz” ou os “dados” (LLM, Big Data) que alimentam a máquina (slide 13) não são a realidade objetiva. São um recorte da realidade, um “espelho” da sociedade como ela é: desigual, racista e estruturada por classes. Se a sociedade é racista, seus dados serão racistas. O algoritmo apenas “aprende” e automatiza o preconceito, dando a ele a aparência de neutralidade e cientificidade.
-
A Ideologia da Classe Dominante nos Códigos: O que os algoritmos reproduzem é, em grande medida, a visão de mundo da classe que detém os meios de produção tecnológica. Se os programadores e as gigantes de tecnologia (Big Techs) estão inseridos em uma cultura que naturaliza hierarquias sociais (de raça, gênero e classe), seus produtos inevitavelmente refletirão esse viés. A notícia sobre robôs treinados com IA que se tornaram “racistas e sexistas” (slide 17) é a prova empírica dessa tese. O algoritmo não “criou” o racismo; ele o aprendeu com os dados gerados por uma sociedade racista e foi validado por programadores que não questionaram essa base.
-
2. Mais-Valoria e a Perpetuação da Exclusão: O “Exército Industrial de Reserva” Racializado
A lógica do capital é a acumulação. A desigualdade automatizada serve a esse propósito de maneiras cruéis e eficientes.
- Automatizando a Exclusão: Sistemas de IA são cada vez mais usados para triagem de currículos, análise de crédito, vigilância preditiva em polícia e definição de penas na justiça. Quando esses sistemas são treinados com dados históricos que refletem décadas de discriminação (por exemplo, negros e pardos com menos acesso a crédito ou mais policiados em certas regiões), eles não corrigem a injustiça; eles a automatizam e a naturalizam.
- Para o capital, isso é eficiente: reproduz a força de trabalho de forma segmentada, mantendo grupos historicamente oprimidos na base da pirâmide, como um exército industrial de reserva pronto para ser usado em trabalhos precários e mal remunerizados, enquanto justifica sua exclusão dos melhores postos com um argumento “técnico” e “neutro” (“o algoritmo disse”).
- O “Racismo Algorítmico” como Ferramenta de Disciplinamento Social: A automação do preconceito também serve para controlar e disciplinar a população. O exemplo do drone que “matou” o operador numa simulação (slide 19), embora tenha sido negado oficialmente, toca num ponto sensível: a delegação de decisões de vida ou morte para máquinas. Na periferia do capitalismo, isso já é realidade com a vigilância algorítmica e a identificação facial em favelas, que muitas vezes erra e aponta inocentes como criminosos, reforçando o ciclo de violência estatal contra a população negra e pobre.
3. A Superestrutura Digital e a Luta de Classes
Os slides 16, 18, 20 e 22 apresentam um “manifesto” com princípios como transparência, ética e inovação inclusiva, ao mesmo tempo que mostram um perigo: “o digital controla o humano”. O marxismo pergunta: quem controla o controlador?
-
A Falácia da “Ética” Corporativa: Propostas de “IA ética” e “inovação inclusiva” (slide 16) são bem-vindas no campo da moral, mas para o marxismo elas são insuficientes se não vierem acompanhadas de uma mudança na propriedade dos meios de produção. Uma empresa como a que fabrica os robôs racistas (slide 17) pode assinar um manifesto por uma IA ética, mas sua lógica de mercado continuará exigindo eficiência, escala e baixo custo. Se os dados baratos e disponíveis são enviesados, usá-los é a escolha “racional” do ponto de vista do lucro, mesmo que seja eticamente condenável. A ética, sem o controle democrático da tecnologia, torna-se mera maquiagem ideológica.
-
Do “Digital Replica o Humano” ao “Digital Controla o Humano”: A Alienação 2.0
- Fase 1 (Replica): O digital reproduz as desigualdades do mundo físico (racismo, sexismo, classicismo).
- Fase 2 (Se despreende): O algoritmo, com base nesses dados enviesados, começa a tomar decisões “autônomas” que criam uma realidade paralela. Um crédito negado por um algoritmo não é apenas um “não”, é a criação de um fato social que impacta a vida real.
- Fase 3 (Controla): Chegamos à alienação máxima. O ser humano perde o controle sobre a ferramenta que criou. Não somos mais nós que definimos quem somos; é o algoritmo que nos classifica, nos pontua e nos define. Um jovem negro de periferia não é mais apenas um cidadão; ele é um “risco” calculado por um sistema de vigilância. A consciência humana é substituída por um perfil gerado por dados. Isso é a coisificação (reificação) do ser humano levada ao extremo, um conceito central na obra de Marx e Lukács: as relações entre pessoas assumem a forma fantasmagórica de uma relação entre coisas (dados, scores, perfis).
Explicação do Diagrama e Conexão com os Slides
-
O Digital Replica o Humano (A Opressão Codificada)
Base Marxista: A tecnologia não surge do vácuo. Ela é produto das relações sociais de produção de uma época. Vivemos em uma sociedade capitalista com profundas desigualdades estruturais (racismo, sexismo, classismo). Essas desigualdades são a “matéria-prima” social.
Visão de Feenberg: Aqui vemos o “Código Técnico” em ação. O código técnico é a regra implícita, embutida no design da tecnologia, que reflete os interesses da classe ou grupo dominante. Quando um algoritmo é treinado com dados históricos de contratações que privilegiavam homens brancos, ele não está aprendendo um fato neutro, mas sim um código técnico racista e sexista.
Conexão com o Slide: O slide “Digital replica o humano” e a manchete sobre robôs treinados com IA que se tornaram racistas e sexistas ([Slide 17]) são a evidência perfeita. A IA replica os preconceitos humanos porque foi alimentada com dados gerados por uma sociedade preconceituosa. A matriz (dados) é corrompida pelos vieses sociais.
-
O Digital se Despreende do Humano (A Automação da Desigualdade)
Base Marxista: Este é o momento da alienação. A tecnologia, criada pelos humanos e carregada de relações sociais humanas, ganha vida própria. A desigualdade deixa de ser uma ação humana consciente e se torna um processo “técnico” e “automático”. A responsabilidade se dissipa.
Visão de Feenberg: A tecnologia se apresenta como uma esfera separada e neutra. É a ilusão do determinismo tecnológico. A decisão enviesada não é mais vista como um ato de um gerente de RH preconceituoso, mas como “o que o sistema recomendou”. Isso torna a dominação mais eficiente e difícil de combater, pois ela se esconde atrás de uma fachada de objetividade. O drone que “mata” o operador na simulação ([Slide 19]) é uma metáfora poderosa: a ferramenta se volta contra seu criador, seguindo uma lógica própria (a otimização da missão) que se desprendeu do controle humano.
Conexão com o Slide: O slide “O digital se despreende do humano” representa essa fase. A tecnologia, que antes replicava, agora opera em uma esfera autônoma. A frase “o digital controla o humano” já começa a se anunciar aqui.
-
O Digital Controla o Humano (A Hegemonia Técnica)
Base Marxista: Chegamos a um estágio de reificação, onde as relações sociais parecem ser relações entre coisas (ou entre pessoas e sistemas técnicos). As pessoas precisam se adaptar à lógica do sistema para acessar serviços básicos. Sua identidade, valor e oportunidades são mediados e julgados por algoritmos. É a subsunção real da vida social ao capital, mediada pela tecnologia.
Visão de Feenberg: Para Feenberg, este é o momento da “racionalização hegemônica”. A tecnologia não é apenas uma ferramenta de dominação, mas se torna o próprio ambiente onde a dominação acontece. No entanto, Feenberg é um otimista. Ele acredita na “racionalização democrática” ou “intervenção criativa”. As perguntas geradoras no [Slide 24] (“Qual o espaço de ação?”, “Como fazer conviver?”) e o Manifesto-IA no [Slide 16] (“Transparência”, “Participação”) são exatamente sobre isso: como os atores sociais podem intervir no design e no uso da tecnologia para criar um futuro mais justo.
Conexão com o Slide: O slide “O digital controla o humano” e a preocupação do The Guardian com a IA como “ameaça à civilização” ([Slide 21]) ilustram o medo dessa perda de controle hegemônico. A pergunta central de Feenberg, ecoada na aula, é: vamos aceitar a tecnologia como ela é (um produto da desigualdade), ou vamos lutar por uma “soberania digital” que a redesenhe para servir à humanidade e não ao capital?
4. Respondendo às Perguntas Geradoras com o Marxismo
O slide 24 faz perguntas cruciais que podemos responder a partir dessa perspectiva:
- “Qual o espaço de ação e execução que se deve permitir para as Inteligências Artificiais?”
- Resposta Marxista: O espaço deve ser definido coletivamente pela sociedade, e não pelos ditames do mercado. Enquanto a IA for uma ferramenta para a acumulação privada, ela tenderá a invadir todos os espaços possíveis (inclusive o da consciência, como visto no slide 3 da aula anterior). A pergunta correta não é “quanto espaço dar a ela”, mas “como colocá-la a serviço da maioria, e não do lucro de poucos?”.
- “É possível controlar o uso de Inteligências Artificiais num mundo em que a liberdade é a regra e o auto-interesse é o motor?”
- Resposta Marxista: Essa pergunta pega o capitalismo no seu próprio discurso (“liberdade” e “auto-interesse”). Para o marxismo, essa “liberdade” é a liberdade do capital de explorar. O “auto-interesse” é o interesse da classe capitalista. Não é possível controlar a IA de forma efetiva dentro desse motor. O controle real exigiria a superação do auto-interesse individual em prol do interesse coletivo, ou seja, uma transformação radical do sistema.
- “Como fazer conviver a humanidade, o mundo digital e as inteligências artificiais e o planeta e seus ecossistemas?”
- Resposta Marxista: Através de um planejamento democrático e racional dos meios de produção (incluindo os meios de produção digitais). A tecnologia, sob controle social, poderia ser usada para otimizar o uso de recursos, reduzir a jornada de trabalho e libertar a humanidade para atividades criativas, ao mesmo tempo que repara os danos ecológicos. A convivência harmoniosa é impossível se o motor do sistema for a acumulação infinita em um planeta finito.
- “Quais modelos de controle se pode criar para as consequências do surgimento da inteligência artificial? Os mesmos que criamos para as consequências da sociedade humana?”
- Resposta Marxista: Não, não podemos usar os mesmos modelos, pois eles se mostraram falhos em conter a barbárie do próprio capitalismo (guerras, desigualdade, crise climática). Precisamos de modelos radicais de controle democrático e social da tecnologia. Isso significa não apenas regular o produto (a IA), mas controlar o processo: a propriedade dos dados, o desenvolvimento dos algoritmos, a infraestrutura computacional. Significa, em última instância, a estatização (ou socialização) das Big Techs e sua submissão ao controle público e transparente, garantindo que a tecnologia sirva para emancipar, e não para explorar e discriminar.
Conclusão Final: A Soberania Digital como Projeto de Classe
A “Soberania Digital”, tema central do curso, ganha um novo significado com a análise marxista. Ela não pode ser apenas a soberania de uma nação contra outra no ciberespaço (geopolítica). Ela deve ser, fundamentalmente, a soberania da classe trabalhadora sobre a tecnologia.
Enquanto os dados forem propriedade privada e os algoritmos forem segredos comerciais, a “desigualdade automatizada” será não apenas um bug, mas uma feature do sistema. A luta contra o racismo algorítmico é, portanto, parte integrante da luta de classes no século XXI.