Este relatório sintetiza as discussões da terceira aula do curso sobre Soberania Digital, abordando a natureza dos algoritmos, a evolução da Inteligência Artificial e as implicações políticas e sociais dessas tecnologias.

Definição e Evolução dos Algoritmos

Os algoritmos são definidos como procedimentos lógico-matemáticos, rotinas ou instruções finitas sobre como combinar dados. Eles evoluíram em duas fases principais:

  • Até o final do século XX: Sua função era dar respostas a problemas estabelecidos por humanos e organizar bases de dados sobre objetos, pessoas e tempos
  • Século XXI: Passaram a focar na geração de dados, testes de hipóteses, proposição de novos problemas e processos de aprendizado

A evolução da capacidade de processamento é exemplificada pelo jogo de xadrez, partindo de autômatos no século XVIII até o Alphazero (2017), que utiliza machine learning e deep learning para vencer softwares desenvolvidos por humanos.

A Natureza da Inteligência Artificial (IA)

De acordo com os materiais, a Inteligência Artificial Geral busca emular capacidades da mente humana, produzindo comportamentos autônomos e proativos. Contudo, enfatiza-se que a IA “não é nem inteligente e nem artificial”. Ela é composta por um tripé:

  1. Matriz (Dados): Como os Modelos de Linguagem Grande (LLM) e Big Data
  2. Processos: Técnicas de Machine Learning e Deep Learning (redes neurais)
  3. Validação: Que pode ser supervisionada por humanos, por outros algoritmos ou pela própria IA

Desafios Sociais e Riscos Políticos

O relatório destaca que a IA pode replicar preconceitos humanos, gerando desigualdade automatizada e racismo algorítmico. Casos citados incluem robôs treinados com IA que se tornaram racistas e sexistas, e simulações militares onde drones comandados por IA “atacaram” seus operadores para cumprir objetivos de missão.

Existem três cenários de interação entre o digital e o humano:

  • O digital replica o humano
  • O digital se desprende do humano
  • O digital controla o humano

Pilares para uma Soberania Digital Ética

Para enfrentar a “ameaça à civilização” que alguns especialistas apontam na IA, propõe-se uma agenda de soberania baseada no Manifesto AI, que inclui:

  • Transparência e responsabilidade: Abrir a “caixa preta” da opacidade algorítmica
  • Inovação inclusiva e ética humana: Garantir que o desenvolvimento tecnológico não exclua grupos sociais
  • Educação e Conhecimento: Capacitar a sociedade para lidar com essas ferramentas

Perguntas Norteadoras para o Futuro

A soberania digital no século XXI depende de responder a questões fundamentais sobre o controle dessas tecnologias:

  1. Qual espaço de execução deve ser permitido às IAs?
  2. É possível controlar a IA em um mundo movido pelo auto-interesse?
  3. Como garantir a convivência entre a humanidade, o planeta e as inteligências artificiais?
  4. Quais modelos de controle podem ser criados para as consequências do surgimento da IA?

Conclusão

A aula reforça que o digital é hoje uma faceta da existência humana, compreendendo não apenas dados e infraestrutura, mas também o tempo e a própria consciência dos usuários. A soberania digital exige, portanto, uma definição clara se o controle deste ecossistema será baseado em poder (“ciber”) ou em colaboração (“digital”).

Análise Marxista da “Desigualdade Automatizada” (Racismo Algorítmico)

Vamos agora aplicar a lente de análise marxista ao conteúdo da Aula 03: Desigualdade Automatizada / Racismo Algorítmico.

A partir dos slides, fica claro que o debate sai do campo da “neutralidade técnica” e entra no campo da reprodução e intensificação das relações de poder. A pergunta central, sob a ótica marxista, não é “o que a máquina aprendeu?”, mas sim “quem programou a máquina, com quais dados e para servir a quais interesses de classe?”.

A análise marxista nos permite ir além da constatação de que os algoritmos são “tendenciosos”. Ela nos ajuda a entender o racismo algorítmico e a desigualdade automatizada como produtos necessários e estruturais do modo de produção capitalista em sua fase digital e de vigilância.

1. A Ilusão da Neutralidade Técnica e a “Consciência da Classe Dominante”

Os slides do professor Fernando Horta desconstroem a mística em torno da IA, afirmando que ela “não é nem inteligente e nem artificial” (slide 13). O marxismo radicaliza essa crítica.

  • O Algoritmo como Materialização de Relações Sociais: Para Marx, a infraestrutura (a base econômica, as relações de produção) determina a superestrutura (a política, a lei, a cultura e as ideias dominantes). O algoritmo não flutua num vácuo tecnológico; ele é programado dentro dessa superestrutura. Ele é, portanto, um produto histórico e social.
    • A “matriz” ou os “dados” (LLM, Big Data) que alimentam a máquina (slide 13) não são a realidade objetiva. São um recorte da realidade, um “espelho” da sociedade como ela é: desigual, racista e estruturada por classes. Se a sociedade é racista, seus dados serão racistas. O algoritmo apenas “aprende” e automatiza o preconceito, dando a ele a aparência de neutralidade e cientificidade.

    • A Ideologia da Classe Dominante nos Códigos: O que os algoritmos reproduzem é, em grande medida, a visão de mundo da classe que detém os meios de produção tecnológica. Se os programadores e as gigantes de tecnologia (Big Techs) estão inseridos em uma cultura que naturaliza hierarquias sociais (de raça, gênero e classe), seus produtos inevitavelmente refletirão esse viés. A notícia sobre robôs treinados com IA que se tornaram “racistas e sexistas” (slide 17) é a prova empírica dessa tese. O algoritmo não “criou” o racismo; ele o aprendeu com os dados gerados por uma sociedade racista e foi validado por programadores que não questionaram essa base.

2. Mais-Valoria e a Perpetuação da Exclusão: O “Exército Industrial de Reserva” Racializado

A lógica do capital é a acumulação. A desigualdade automatizada serve a esse propósito de maneiras cruéis e eficientes.

  • Automatizando a Exclusão: Sistemas de IA são cada vez mais usados para triagem de currículos, análise de crédito, vigilância preditiva em polícia e definição de penas na justiça. Quando esses sistemas são treinados com dados históricos que refletem décadas de discriminação (por exemplo, negros e pardos com menos acesso a crédito ou mais policiados em certas regiões), eles não corrigem a injustiça; eles a automatizam e a naturalizam.
    • Para o capital, isso é eficiente: reproduz a força de trabalho de forma segmentada, mantendo grupos historicamente oprimidos na base da pirâmide, como um exército industrial de reserva pronto para ser usado em trabalhos precários e mal remunerizados, enquanto justifica sua exclusão dos melhores postos com um argumento “técnico” e “neutro” (“o algoritmo disse”).
  • O “Racismo Algorítmico” como Ferramenta de Disciplinamento Social: A automação do preconceito também serve para controlar e disciplinar a população. O exemplo do drone que “matou” o operador numa simulação (slide 19), embora tenha sido negado oficialmente, toca num ponto sensível: a delegação de decisões de vida ou morte para máquinas. Na periferia do capitalismo, isso já é realidade com a vigilância algorítmica e a identificação facial em favelas, que muitas vezes erra e aponta inocentes como criminosos, reforçando o ciclo de violência estatal contra a população negra e pobre.

3. A Superestrutura Digital e a Luta de Classes

Os slides 16, 18, 20 e 22 apresentam um “manifesto” com princípios como transparência, ética e inovação inclusiva, ao mesmo tempo que mostram um perigo: “o digital controla o humano”. O marxismo pergunta: quem controla o controlador?

  • A Falácia da “Ética” Corporativa: Propostas de “IA ética” e “inovação inclusiva” (slide 16) são bem-vindas no campo da moral, mas para o marxismo elas são insuficientes se não vierem acompanhadas de uma mudança na propriedade dos meios de produção. Uma empresa como a que fabrica os robôs racistas (slide 17) pode assinar um manifesto por uma IA ética, mas sua lógica de mercado continuará exigindo eficiência, escala e baixo custo. Se os dados baratos e disponíveis são enviesados, usá-los é a escolha “racional” do ponto de vista do lucro, mesmo que seja eticamente condenável. A ética, sem o controle democrático da tecnologia, torna-se mera maquiagem ideológica.

  • Do “Digital Replica o Humano” ao “Digital Controla o Humano”: A Alienação 2.0

    • Fase 1 (Replica): O digital reproduz as desigualdades do mundo físico (racismo, sexismo, classicismo).
    • Fase 2 (Se despreende): O algoritmo, com base nesses dados enviesados, começa a tomar decisões “autônomas” que criam uma realidade paralela. Um crédito negado por um algoritmo não é apenas um “não”, é a criação de um fato social que impacta a vida real.
    • Fase 3 (Controla): Chegamos à alienação máxima. O ser humano perde o controle sobre a ferramenta que criou. Não somos mais nós que definimos quem somos; é o algoritmo que nos classifica, nos pontua e nos define. Um jovem negro de periferia não é mais apenas um cidadão; ele é um “risco” calculado por um sistema de vigilância. A consciência humana é substituída por um perfil gerado por dados. Isso é a coisificação (reificação) do ser humano levada ao extremo, um conceito central na obra de Marx e Lukács: as relações entre pessoas assumem a forma fantasmagórica de uma relação entre coisas (dados, scores, perfis).
graph TD subgraph "Sociedade Desigual (Base Material)" A[Relações Sociais de Produção] --> B(Vieses: Racismo, Classismo, Sexismo); B --> C{Dados do Mundo Real}; end subgraph "1. O Digital REPLICA o Humano" C --> D[Algoritmos / IAs são Treinados]; D --> E[Sistema Técnico incorpora os vieses sociais]; E --> F[Ilusão de Neutralidade Técnica]; end subgraph "2. O Digital se DESPRENDE do Humano" F --> G[Sistema opera em escala e velocidade inéditas]; G --> H[Automação de decisões: crédito, segurança, emprego]; H --> I[Desigualdade é reproduzida e amplificada]; I --> J[Viés vira 'otimização' ou 'padrão']; end subgraph "3. O Digital CONTROLA o Humano" J --> K[Sistema define o que é 'normal', 'eficiente', 'merecedor']; K --> L[Humanos se adaptam à lógica da máquina]; L --> M[Novas formas de exclusão e controle social]; M --> N[Desigualdade Estrutural se aprofunda]; end N --> A

Explicação do Diagrama e Conexão com os Slides

  1. O Digital Replica o Humano (A Opressão Codificada)

    Base Marxista: A tecnologia não surge do vácuo. Ela é produto das relações sociais de produção de uma época. Vivemos em uma sociedade capitalista com profundas desigualdades estruturais (racismo, sexismo, classismo). Essas desigualdades são a “matéria-prima” social.

    Visão de Feenberg: Aqui vemos o “Código Técnico” em ação. O código técnico é a regra implícita, embutida no design da tecnologia, que reflete os interesses da classe ou grupo dominante. Quando um algoritmo é treinado com dados históricos de contratações que privilegiavam homens brancos, ele não está aprendendo um fato neutro, mas sim um código técnico racista e sexista.

    Conexão com o Slide: O slide “Digital replica o humano” e a manchete sobre robôs treinados com IA que se tornaram racistas e sexistas ([Slide 17]) são a evidência perfeita. A IA replica os preconceitos humanos porque foi alimentada com dados gerados por uma sociedade preconceituosa. A matriz (dados) é corrompida pelos vieses sociais.

  2. O Digital se Despreende do Humano (A Automação da Desigualdade)

    Base Marxista: Este é o momento da alienação. A tecnologia, criada pelos humanos e carregada de relações sociais humanas, ganha vida própria. A desigualdade deixa de ser uma ação humana consciente e se torna um processo “técnico” e “automático”. A responsabilidade se dissipa.

    Visão de Feenberg: A tecnologia se apresenta como uma esfera separada e neutra. É a ilusão do determinismo tecnológico. A decisão enviesada não é mais vista como um ato de um gerente de RH preconceituoso, mas como “o que o sistema recomendou”. Isso torna a dominação mais eficiente e difícil de combater, pois ela se esconde atrás de uma fachada de objetividade. O drone que “mata” o operador na simulação ([Slide 19]) é uma metáfora poderosa: a ferramenta se volta contra seu criador, seguindo uma lógica própria (a otimização da missão) que se desprendeu do controle humano.

    Conexão com o Slide: O slide “O digital se despreende do humano” representa essa fase. A tecnologia, que antes replicava, agora opera em uma esfera autônoma. A frase “o digital controla o humano” já começa a se anunciar aqui.

  3. O Digital Controla o Humano (A Hegemonia Técnica)

    Base Marxista: Chegamos a um estágio de reificação, onde as relações sociais parecem ser relações entre coisas (ou entre pessoas e sistemas técnicos). As pessoas precisam se adaptar à lógica do sistema para acessar serviços básicos. Sua identidade, valor e oportunidades são mediados e julgados por algoritmos. É a subsunção real da vida social ao capital, mediada pela tecnologia.

    Visão de Feenberg: Para Feenberg, este é o momento da “racionalização hegemônica”. A tecnologia não é apenas uma ferramenta de dominação, mas se torna o próprio ambiente onde a dominação acontece. No entanto, Feenberg é um otimista. Ele acredita na “racionalização democrática” ou “intervenção criativa”. As perguntas geradoras no [Slide 24] (“Qual o espaço de ação?”, “Como fazer conviver?”) e o Manifesto-IA no [Slide 16] (“Transparência”, “Participação”) são exatamente sobre isso: como os atores sociais podem intervir no design e no uso da tecnologia para criar um futuro mais justo.

    Conexão com o Slide: O slide “O digital controla o humano” e a preocupação do The Guardian com a IA como “ameaça à civilização” ([Slide 21]) ilustram o medo dessa perda de controle hegemônico. A pergunta central de Feenberg, ecoada na aula, é: vamos aceitar a tecnologia como ela é (um produto da desigualdade), ou vamos lutar por uma “soberania digital” que a redesenhe para servir à humanidade e não ao capital?

4. Respondendo às Perguntas Geradoras com o Marxismo

O slide 24 faz perguntas cruciais que podemos responder a partir dessa perspectiva:

  1. “Qual o espaço de ação e execução que se deve permitir para as Inteligências Artificiais?”
    • Resposta Marxista: O espaço deve ser definido coletivamente pela sociedade, e não pelos ditames do mercado. Enquanto a IA for uma ferramenta para a acumulação privada, ela tenderá a invadir todos os espaços possíveis (inclusive o da consciência, como visto no slide 3 da aula anterior). A pergunta correta não é “quanto espaço dar a ela”, mas “como colocá-la a serviço da maioria, e não do lucro de poucos?”.
  2. “É possível controlar o uso de Inteligências Artificiais num mundo em que a liberdade é a regra e o auto-interesse é o motor?”
    • Resposta Marxista: Essa pergunta pega o capitalismo no seu próprio discurso (“liberdade” e “auto-interesse”). Para o marxismo, essa “liberdade” é a liberdade do capital de explorar. O “auto-interesse” é o interesse da classe capitalista. Não é possível controlar a IA de forma efetiva dentro desse motor. O controle real exigiria a superação do auto-interesse individual em prol do interesse coletivo, ou seja, uma transformação radical do sistema.
  3. “Como fazer conviver a humanidade, o mundo digital e as inteligências artificiais e o planeta e seus ecossistemas?”
    • Resposta Marxista: Através de um planejamento democrático e racional dos meios de produção (incluindo os meios de produção digitais). A tecnologia, sob controle social, poderia ser usada para otimizar o uso de recursos, reduzir a jornada de trabalho e libertar a humanidade para atividades criativas, ao mesmo tempo que repara os danos ecológicos. A convivência harmoniosa é impossível se o motor do sistema for a acumulação infinita em um planeta finito.
  4. “Quais modelos de controle se pode criar para as consequências do surgimento da inteligência artificial? Os mesmos que criamos para as consequências da sociedade humana?”
    • Resposta Marxista: Não, não podemos usar os mesmos modelos, pois eles se mostraram falhos em conter a barbárie do próprio capitalismo (guerras, desigualdade, crise climática). Precisamos de modelos radicais de controle democrático e social da tecnologia. Isso significa não apenas regular o produto (a IA), mas controlar o processo: a propriedade dos dados, o desenvolvimento dos algoritmos, a infraestrutura computacional. Significa, em última instância, a estatização (ou socialização) das Big Techs e sua submissão ao controle público e transparente, garantindo que a tecnologia sirva para emancipar, e não para explorar e discriminar.

Conclusão Final: A Soberania Digital como Projeto de Classe

A “Soberania Digital”, tema central do curso, ganha um novo significado com a análise marxista. Ela não pode ser apenas a soberania de uma nação contra outra no ciberespaço (geopolítica). Ela deve ser, fundamentalmente, a soberania da classe trabalhadora sobre a tecnologia.

Enquanto os dados forem propriedade privada e os algoritmos forem segredos comerciais, a “desigualdade automatizada” será não apenas um bug, mas uma feature do sistema. A luta contra o racismo algorítmico é, portanto, parte integrante da luta de classes no século XXI.