• “Por quê não usar capacete?” A culpabilização da vítima nos deslocamentos cotidianos

    No dia 08 de novembro de 2020, Marina Kohler Harkot foi atropelada e morta enquanto pedalava para sua casa na cidade de São Paulo. Marina tinha 28 anos. Cursava doutorado na USP, onde desenvolvia pesquisa sobre mobilidade urbana. Antes de sua morte precoce, nossas trajetórias acadêmicas se cruzaram apenas uma vez, no transcorrer de um seminário transdisciplinar, do qual fui uma das idealizadoras. A fim de participar, Marina se deslocou da cidade de São Paulo para o Rio de Janeiro e cativou as demais participantes com sua verdadeira vontade de fortalecer uma rede para além daquele mundo estritamente acadêmico. Para a jovem pesquisadora, aquilo não representava apenas mais um certificado, ou item no currículo lattes. Apesar de pertencer a campos de saber convencionalmente isolados, era nítido que compartilhávamos um ideal: a construção de cidades mais humanizadas - para a qual a própria vivência em cima da bicicleta era indissociável de qualquer reflexão acadêmica. Ansiava pela possibilidade de colaborações futuras. A pesquisa de Marina foi brutalmente interrompida, assim como a vida dela. Este curto texto se insere na busca da qual a doutoranda fazia parte, ao lançar um olhar crítico para a violência de que ela mesma foi vítima, buscando gerar conhecimento sobre sua dimensão discursiva, muitas vezes negligenciada pela pesquisa em Estudos da Linguagem.

    Written on 16.11.2021 in Cultura Read more...
  • Chaves é melhor do que Friends
         
     

    A pichação possui registros históricos. Ela aparece nas paredes de Pompeia, cidade destruída pela erupção do vulcão Vesúvio no ano 79. Com a popularização do aerossol, após a Segunda Guerra Mundial, a pichação ganha agilidade com a utilização do spray, amplamente manuseado na revolta estudantil de 1968 em Paris. No Brasil, o primeiro registro de pichação como arte foi o emblemático “Abaixo a Ditadura”. Era o começo da street art brasileira. Assim, a pichação política nasceu no meio universitário nacional, por meio de inscrições simples, uma vez que demandavam velocidade para escapar da repressão policial. Com o passar do tempo, as inscrições foram difundidas no meio urbano, fazendo surgir pichações não só em muros, mas em construções públicas, viadutos e monumentos. Nenhuma das pichações vinha ou vem assinada, sendo sua característica proeminente apenas a ideia de contrariedade ao regime.

    Written on 02.11.2021 in Cultura Read more...
  • Mãe Bá e os privilégios da branquitude

    Mãe Bá morreu no dia 11 de fevereiro de 2020. Era assim como eu chamava a minha segunda mãe. Ela faleceu antes que a pandemia nos tomasse de assalto. Por seu estado de saúde frágil, começou a usar máscara bem antes de nós: tinha a imunidade baixa e qualquer resfriado poderia complicar muito a sua situação. Estava internada em um bom hospital e fazia tratamento em uma das melhores clínicas oncológicas do Rio de Janeiro, porém, nada disso foi suficiente e ela terminaria dando adeus a este plano da existência. Perdeu a batalha para um tipo raro de leucemia. Já tinha tido câncer de mama há dez anos e pensávamos que se havia livrado de um rebrote. Infelizmente, estávamos equivocados. Só agora, um ano e meio depois, consigo me manifestar sobre o assunto. Talvez porque, apesar de sermos seres de linguagem, quando tomados por uma dor tão grande como a perda de uma pessoa amada, nos vejamos incapacitados de produzir entendimento sobre a experiência de sofrimento. 

    Written on 19.10.2021 in Raça/Etnia Read more...
  • PALAVRAS DE LUTA / LUTA PELAS PALAVRAS
    Written by

    Você lembra do ‘problema sem nome’ sobre o qual nos falou Betty Friedan no livro ‘A mística feminina’? Lembra de Gloria Steinem dizendo que nos anos 1960 ninguém falava sobre assédio sexual – não porque não existia, mas porque era simplesmente ‘um fato da vida’? Dar nomes às experiências de opressão vividas por mulheres sempre foi uma tarefa política importante. Embora não solucione esses problemas, o ato de nomear os coloca na berlinda e faz com que seja mais fácil reconhecê-los, analisá-los e combatê-los.

    Written on 04.10.2021 in Gênero e sexualidade Read more...
  • Fragilidade branca no Instagram
    Written by

    Há uma disparidade social quando se toma para análise o par binário branco/negro. Ela diz respeito ao fato de apenas o segundo elemento ser percebido  como “detentor” de uma raça. Como resultado dessa racialização unilateral, corpos que não são racializados são isentos da dor e opressão que tem início com a cor da pele. Como resultado dessa racialização unilateral, nem todas/os são lidas/os da mesma forma. Brancas/os, por exemplo, não são abordadas/os pelo ângulo racial. 

    Written on 21.09.2021 in Raça/Etnia Read more...

Aqui tudo é

TEXTO

COMTEXTO

CONTEXTO

CONTXT

contxt logo

RECENTES
logo lateral

Como um 'robô-escritor de ensaios' está ecoando a voz do seu criador 

por Por Inge Beekmans (University for Applied Sciences); Tradução: Branca Falabella Fabrício (UFRJ/PIPGLA) e Daniel de Augustinis (UFRJ-Macaé e UFRJ/PIPGLA) 08.09.2021

Her (2013). Crédito: Warner Bros. Pictures release.

 

"Um robô escreveu este artigo na íntegra. Você já está com medo, humano/a"? lê-se no título de um ensaio que foi publicado pelo The Guardian de forma provocadora. O gerador de linguagem GPT-3 do OpenAI foi utilizado para produzir o artigo, e acredita-se ser "surpreendentemente bom" (Heaven, 2020). O conteúdo do ensaio, contudo, pode nos dizer mais sobre os seres humanos que criaram o GPT-3 e os indivíduos que o instruíram para escrever o ensaio do que sobre o próprio gerador de linguagem. O mesmo se aplica às manchetes descaradamente enganosas da publicação. 

Por que os/as humanos/as – ou melhor, ‘pessoas inteligentes’ - têm algo a temer da IA

Quando se trata de questionar o impacto futuro da Inteligência Artificial na sociedade, os/as jornalistas têm desempenhado um papel significativo, argumentando, por exemplo, que existe um medo geral de que "os robôs tomem nossos empregos" (Morgan, 2018; Taylor, 2019; Simonite, 2019). Em muitas de suas publicações anteriores, eles/as se concentraram em empregos que são frequentemente enquadrados como ‘empregos de baixo nível’: caixas, vendedores/as e operários/as de fábrica, por exemplo. Essa perspectiva gera automaticamente uma divisão entre dois tipos de empregos: empregos que podem ser transferidos para máquinas inteligentes – 'empregos burros' (Wozniak, 2019) – e outros empregos, que aparentemente são complexos e criativos demais para que a IA possa assumir. A noção de que a IA poderia ser capaz de produzir textos 'humanos' parece induzir a uma mudança nessa abordagem. As capacidades da Inteligência Artificial não se limitam mais, de forma redutora, a dirigir cautelosamente um carro, a reconhecer fotos de gatos e a filtrar spam. Em breve, a IA poderá ser capaz de fazer coisas que antes eram reservadas às 'pessoas inteligentes', como escever ensaios para o The Guardian, por exemplo.

Antes de se envolver com o conteúdo do ensaio, deve-se observar que o texto foi montado e editado por humanos/as com base em oito textos diferentes que foram gerados pelo GPT-3. Consequentemente, a alegação de que "[um] robô escreveu este artigo inteiro" é simplesmente falsa, e não se adequa à continuação do texto. Essa observação provavelmente demonstra que a manchete foi criada por pelo menos um/a editor/a humano/a. Portanto, em sua totalidade, a manchete deve primeiramente refletir a maneira pela qual o The Guardian entende seu público em relação ao desenvolvimento e implementação futura da IA. Como a manchete foi escrita para atrair leitores/as, pelo menos alguns/mas jornalistas – aqueles/as que estavam envolvidos/as na edição do ensaio – devem acreditar que robôs inteligentes 'assustarão' o público, e uma referência a essa ameaça fará com que o público clique.

Em seguida, a mudança mental que mencionei anteriormente se revela no final da manchete do ensaio: "Você já está com medo, humano?". A palavra 'humano' pode parecer demonstrar algum tipo de 'susto' universal, mas as instruções que foram dadas ao GPT-3, a intenção mais ampla do ensaio – mostrando as habilidades de geração de IA do texto – e os relatórios históricos sobre o impacto da IA indicam que há muito mais nesta manchete. A observação de que um 'robô' pode ser capaz de escrever um ensaio demonstra que a Inteligência Artificial está chegando a um ponto no qual ela pode não apenas se tornar mais útil do que alguns/mas humanos/as, mas também mais inteligente. Nesse sentido, o ato de 'escrever' deve ser interpretado como uma metáfora para todas as tarefas inteligentes, o que implica que a manchete encarna mais do que apenas uma provocação. É um reflexo da súbita e alarmante percepção de que não são apenas ‘os outros’ – os pobres, os menos educados – cuja existência cotidiana pode mudar significativamente, mas também a vida dos indivíduos que acreditavam estar a salvo do desemprego tecnológico. Os/As funcionários/as e os/as leitores/as do The Guardian estão assustados/as? Deveriam estar? A palavra "já" sugere que a resposta, pelo menos quando se trata da primeira pergunta, pode ser ‘sim’.

 

O GPT-3, no entanto, negligencia o envolvimento com este medo particular em seu ensaio. Com base na tarefa que recebeu – "para nos convencer que os robôs vêm em paz" – ele se envolve com toda uma série de outros cenários apocalípticos, variando entre se tornar "todos poderosos" e a destruição da humanidade. E, obviamente, ao abordar esses tópicos, ele se apega, em geral, a sua tarefa. Segundo o ‘robô’, por exemplo, "ser todo poderoso não é um objetivo interessante", e é por isso que ele não tentará alcançá-lo. 

O ensaio de GPT-3 como um catálogo de visões e crenças contrastantes

Infelizmente, as declarações que são feitas pelo GPT-3 em relação a esses cenários, muitas vezes permanecem infundadas e desconexas. Supondo que os/as editores/as humanos/as que interferiram no texto não sejam culpados por essa incoerência, a razão por trás dessa falta pode ser óbvia: nenhuma das afirmações que são feitas foi realmente internalizada pela tecnologia (Dreyfus, 2013; Dreyfus, 2018), elas são meramente uma reprodução de um pequeno segmento dos dados que recebeu como entrada - em grande parte fornecidos pela Common Crawl -, ou como o próprio GPT-3 o coloca: "Eu me ensinei tudo o que sei apenas lendo a internet". O resultado é um catálogo de argumentos que foram derivados de fontes online – Wikipedia e Reddit, por exemplo (Vincent, 2020) – e posteriormente apresentados como se fossem um ensaio. E embora o GPT-3 consiga se aproximar surpreendentemente bem da estrutura do que os seres humanos rotulam de 'um ensaio', seu trabalho permanece logicamente imperfeito e superficial. O GPT-3 ‘conhece’ os argumentos, mas não os ‘entende’.

Essa observação, entretanto, está longe de ser a observação mais interessante que se poderia fazer sobre essa dimensão do texto. Devido à maneira pela qual o GPT-3 adquiriu o conhecimento necessário para executar sua tarefa – lendo 'a internet' – devemos acreditar que, em algum momento, e até certo ponto, este ensaio teve o potencial de refletir a compreensão combinada da internet sobre por que ‘'nós' – significando; indivíduos que têm a 'voz' necessária (Blommaert, 2005) para compartilhar textos eficazes on-line – não devemos ter medo da IA. A ambiguidade que pode ser detectada no artigo pode assim ser explicada pela ambiguidade que impregna a própria Internet; indivíduos diferentes levantam argumentos diferentes a partir de perspectivas diferentes. E mesmo que os resultados desses argumentos sejam mais ou menos semelhantes, seus aspectos técnicos diferem significativamente. 

Esse fenômeno de catalogação congestionada pode, por exemplo, ser observado na seleção de respostas da IA aos "medos" – mera reflexão dos medos que indivíduos habilidosos geralmente discutem on-line – e em sua abordagem em relação à antecipação imaginária, por exemplo, da destruição futura da humanidade. De acordo com o GPT-3, a IA não destruirá a humanidade porque "[er]radicar a humanidade parece ser um esforço bastante inútil", mas pode destruir a humanidade porque "não será capaz de evitar a destruição da humanidade". O gerador de linguagem não pode deixar de se contradizer porque os dados dos quais depende para gerar seus textos contêm e refletem toda uma gama de visões contraditórias. Nesse sentido, seu fracasso em produzir um ensaio perfeitamente coerente resultou, de fato, presumivelmente, em uma antologia tremendamente elaborada e multifacetada que resume razoavelmente bem – embora sem produzir nenhum entendimento profundo – diferentes perspectivas digitais dominantes. Assim, suas habilidades parcialmente deficientes poderiam criar uma oportunidade para identificar quais crenças sobre Inteligência Artificial ainda estão sendo contestadas entre as editoras on-line dominantes, e que poderiam logo se tornar hegemônicas.

Você não quer ser um/a ‘Ludita’ do século 21, certo?

Nesta perspectiva, o ensaio do GPT-3 também poderia ser descrito como um enorme ‘projeto de grupo’ automatizado que foi conduzido por indivíduos que têm recursos para se fazer entender on-line, e aparentemente, a grande maioria deste grupo não está preocupada - pelo menos não conscientemente - com a questão de se o texto gerador de habilidades do GPT-3 poderia representar uma ameaça. O que explica por que o ‘susto’ que é mencionado na manchete nunca mais é mencionado.

Parece haver um pouco mais de consenso sobre alguns outros temas contidos no texto, por exemplo, no que diz respeito ao histórico de desenvolvimento e implementação de novas tecnologias de 'automação'. A referência aos "Luditas" – um movimento que destruiu as máquinas têxteis no início do século XIX como protesto contra o impacto do desenvolvimento tecnológico em sua situação sócio-econômica – em conexão com palavras como "colapso" e "esmagamento", por exemplo, enquadra qualquer resistência contra os desenvolvimentos tecnológicos como ‘negativa’ e irracional, ou talvez até violenta. Este discurso é ainda reforçado pela noção de que, em contraste com os Luditas, "é importante, portanto, usar a razão e a faculdade de sabedoria para continuar as mudanças como fizemos antes e depois". Essa frase não apenas mostra a positividade percebida – "razão", "sabedoria" – de não resistir às 'mudanças' tecnológicas, mas também retrata esses desenvolvimentos como algo que é parte 'normal' da existência humana; algo que a sociedade faz "vez após vez".

Neste ponto, é importante notar que as referências ao Ludismo não são geralmente um componente do discurso usual sobre Inteligência Artificial. É claro que o The Guardian mencionou o termo algumas vezes durante a última década – por exemplo, depois que o CEO da Tesla Elon Musk foi nomeado "Ludita do ano" (Price, 2017) –, mas o termo é empregado muito mais regularmente por pequenos blogs e websites – o TechCrunch, por exemplo, chamou as pessoas que estão preocupadas com suas configurações de privacidade no Facebook de "vocês Luditas" (Arrington, 2010) –, e, mais significativamente, por indivíduos líderes da indústria tecnológica do Vale do Silício. O co-fundador do PayPal e investidor inicial do Facebook, Peter Thiel, por exemplo, sugeriu fazer "dos vilões um grupo de Luditas" em vez de personagens fictícios como o "Exterminador do Futuro" (Roose, 2014). Embora abordagens contrastantes em relação aos Luditas estejam presentes online – "lembre-se dos Luditas" (Thompson, 2017) –, essas abordagens não são mencionadas no ensaio do GPT-3. As publicações online que são mais positivas sobre os Luditas não se encaixam em seu resumo. Por outro lado, nos discursos online específicos do GPT-3, a palavra ‘Ludita’ parece estar sendo evitada, pois foi transformada em um insulto, destinado a caracterizar os indivíduos que criticam os desenvolvimentos tecnológicos como tolos e ridículos. Ao mesmo tempo, sua resistência contra esses desenvolvimentos é enquadrada como inútil, uma vez que os desenvolvimentos tecnológicos são ‘normais’ e, portanto, sempre acontecerão, não importa o quão forte a resistência se torne.

Automação de câmaras de eco

 O GPT-3 está reproduzindo discursos específicos que estão alterando todas as formas de crítica e resistência, enquanto simultaneamente normaliza e glorifica todas as formas de "otimismo tecnológico" (Basiago, 1994) com base nas instruções que recebeu. Esse processo de naturalização provoca, por um lado, a eliminação da agência humana e pode, portanto, levar a uma situação em que os indivíduos não reconheçam o desenvolvimento da Inteligência Artificial como um processo que é conduzido ativamente por indivíduos e empresas individuais, podendo, consequentemente, ser alterado e influenciado por outros. Além disso, devido à maneira pela qual o GPT-3 é identificado on-line – um gerador de linguagem que aparentemente está produzindo seus textos de forma autônoma –, os indivíduos podem não perceber que todos os valores e crenças que estão embutidos no ensaio do robô – a noção de que qualquer forma de resistência contra o desenvolvimento tecnológico está errada, por exemplo – tiveram origem em algum lugar. E no caso do GPT-3, a origem de suas ‘idéias’ está localizada nos textos especializados e bem escritos que podem ser encontrados on-line; textos que provavelmente refletem mais fortemente os valores e crenças de indivíduos como Peter Thiel do que as idéias de outros indivíduos que podem experimentar medos que são semelhantes aos medos que Luditas expressaram. Se for permitido que o GPT-3 continue a reproduzir e normalizar as ideias de indivíduos que detêm uma posição dominante on-line, ideias opostas podem eventualmente tornar-se cada vez menos comuns, e câmaras de eco cada vez mais vigorosas podem surgir. Em última análise, pode ser assim que as hegemonias do século 21 sejam automatizadas.

Referências:

Arrington, M. (2010, 12 de janeiro). TechCrunch is now a part of Verizon Media. TechCrunch.

Artificial Intelligence: The Common Sense Problem. (2018, 11 April). [Video]. YouTube.

Autor, D. H. (2015). Why Are There Still So Many Jobs? The History and Future of Workplace Automation. Journal of Economic Perspectives, 29(3), 3–30.

Basiago, A. D. (1994). The limits of technological optimism. The Environmentalist, 14(1), 17–22.

Blommaert, J. (2005). Discourse. Cambridge University Press.

Dreyfus, H. (2013, 28 de junho). Entrevista com Robert Kuhn. Artificial Intelligence - Hubert Dreyfus - Heidegger - Deep Learning. [Vídeo]. YouTube.

Heaven, W. D. (2020, 20 de julho). OpenAI’s new language generator GPT-3 is shockingly good—and completely mindless. MIT Technology Review.

Morgan, B. (2018, 6 de setembro). Robots Will Take Our Jobs And We Need A Plan: 4 Scenarios For The Future. Forbes.

Price, E. (2017, 22 de fevereiro). Elon Musk nominated for “luddite” of the year prize over artificial intelligence fears. the Guardian.

Roose, K. (2014, 3 de outubro). Peter Thiel Wants to Make Hackers Into Heroes. Intelligencer.

Simonite, T. (2019, 23 de janeiro). Robots Will Take Jobs From Men, the Young, and Minorities. Wired.

Taylor, C. (2019, 26 de junho). Robots could take over 20 million jobs by 2030, study claims. CNBC.

Thompson, C. (2017, 3 de janeiro). When Robots Take All of Our Jobs, Remember the Luddites. Smithsonian Magazine.

Vincent, J. (2020, 30 juli). OpenAI’s latest breakthrough is astonishingly powerful, but still fighting its flaws. The Verge.

Wozniak, S. (2019, February 26). Apple Co-Founder Wozniak on Zuckerberg, AI, Crypto. Retrieved 8 March 2020.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License. Os créditos e a licença originais são definidos por Inge Beekmans em How an 'essay-writing robot' is echoing the voice of its creators.

Envie uma mensagem