• Home
  • Algorítmo e o analista

Não haverá algoritmo para digitalizar o analista

Fabian Fajnwaks*

 

A internet constitui um espelho, uma figura do Outro, um semblante ou um objeto a? Pode-se encontrar sucessivamente essas categorias lacanianas no universo particular que é a rede. Uma página pessoal no Facebook, Instagram ou Snapchat funciona tal como um espelho que reenvia sua própria imagem ao sujeito, à maneira do estádio do espelho, ou seja, constituindo-se no olhar dos outros, de seus comentários, seus likes ou unlikes. Efeitos de jubilação narcísica seguem-se aí. Essa imagem é acompanhada por significantes, por um discurso que permite construir isso que se chama um perfil, que cada um se dedica a constituir.

Mas o sujeito se hystoriza também em seus blogs, suas páginas pessoais e redes sociais, dando assim lugar a um tipo de escrita de síntese que se faz depositário de seu devir. A acumulação dessa informação sob a forma de dados, dando corpo ao big data, deixa entrever uma similitude com o lugar do código onde se depositam os significantes do sujeito, lugar que Lacan assimilava àquele do Outro. Pelo lugar de endereçamento que a internet encarna, poderíamos encontrar a categoria do Outro, um Outro de síntese, produzido pela tecnologia. O laço do sujeito a esse Outro se declina sobre o primeiro andar do grafo do desejo, com o efeito de retorno sobre o sujeito que constitui a interação com a comunidade viva dos internautas.

Se a internet é um Outro, é um Outro incompleto na medida em que ele é aberto à cifragem permanente dos dados. A lei de Moore, que afirma que a potência de armazenamento dos microprocessadores dobra mais ou menos a cada dois anos, confirma essa abertura. Se a cifragem em dados corresponde a uma codificação fixa, assim como o programa codificado dos algoritmos, a partir de então os algoritmos evolucionários, no centro da inteligência artificial, que podem eles mesmos produzir novas combinatórias, permitem que vejamos perfilar-se ainda mais um Outro aberto e em constante evolução. À maneira de AlphaGo, o programa que venceu o melhor jogador de GO do mundo em março de 2016, desenvolvendo seu próprio jogo, e diferentemente de Deep Blue, o supercomputador no qual estavam gravadas quase todas as partidas de xadrez jogadas pelo homem e que tinha vencido Garry Kasparov em 1997.

Se esse sistema de cifragem que é a internet permite a constituição de um Outro que hospeda os significados do sujeito, há motivos para nos perguntarmos qual sujeito existe pelo efeito de retorno desse Outro de síntese. Pois o vazio presente na significação está ausente aqui na medida em que significante e significado permanecem soldados; e se há deslizamento metonímico, não há efeito de metáfora. Não há mais que um deslizamento metonímico permanente nos fluxos da informação, o que leva Dominique Cardon a dizer, citando Deleuze, que “o indivíduo dos algoritmos é um ‘divíduo’, um indivíduo para sempre dividido nos fluxos do controle maquínico”[2].

Essa dimensão sintética da comunicação, à qual o dispositivo internet dá corpo, seu caráter virtual, introduz sua dimensão de semblante em oposição ao real. A cifragem em questão é uma cifragem sem equívoco, e sobretudo sem resto, na medida em que ela constitui a tradução matemática de significantes em dados que se significam a si mesmos: cada dado corresponde de maneira unívoca a uma informação. No horizonte – que gostamos de imaginar cada vez mais próximo, embora inatingível por estrutura – o que se desenha é o projeto da ciência moderna: que o simbólico termine por recobrir o real. Que a relação sexual possa se escrever e nos desembaraçar do real, como já denunciava Lacan em "A terceira"[3], na medida em que ele seria completamente absorvido pelos dados digitais.

Mas a escrita que o dado supõe – ou a combinatória algorítmica – participa de uma escrita mais literal do que matemática, como bem o ressaltou Jean-Claude Milner em Clartés de tout[4]. O projeto da ciência moderna, do qual o modelo eram as ciências físicas e matemáticas – Koyré o desenvolveu amplamente em seus trabalhos –, emudeceu a partir da ascensão das ciências da vida; desde então, é com uma escrita literal que temos que lidar, uma escrita que não tem das ciências matemáticas mais do que a forma, mas que não formaliza nada. À observação de Kant, “que não haverá um novo Newton para um ramo de capim”[5], para significar que não se chegará jamais a matematizar a natureza, a ciência contemporânea parece antes buscar demonstrar o contrário: que se pode totalmente matematizar o vivo.

É preciso apontar o paradoxo de que é antes a psicanálise que se ocupa de uma escrita do real com seus matemas do que a própria ciência, ao menos a ciência sob a forma das “ciências do vivo”, da qual a biologia molecular dá o modelo. A escrita científica aparece antes, em sua escrita literal, em sua literalidade: mais do lado do semblante, que desse modelo matemático não tem mais do que a forma; e a internet é de alguma maneira consequência disso. Lacan já o indicava, apontando que a ciência é um “semblante articulado"[6] que o real vem furar. O real aqui é aquele do gozo, impossível de digitalizar, como apontava Éric Laurent há alguns anos[7].

A digitalização crescente da vida do ser falante, de seus fenômenos, deu lugar à produção de algoritmos que poderiam substituir um psicoterapeuta. Neste mesmo número, Sherry Turkle comenta o atrativo que um algoritmo psicoterapêutico poderia apresentar para alguns, em relação a um terapeuta em carne e osso, que poderia se enganar. Para além dessa questão, que dá toda sua pertinência ao procedimento do passe como exame que permite reduzir ao máximo os ruídos interferentes do fantasma do analista em sua escuta, uma coisa se desenha com evidência: tendo lugar de objeto a no tratamento, o analista não poderá jamais ser digitalizado por um algoritmo qualquer que ocuparia seu lugar, pois se é possível declinar em significantes isso que a sua presença real implica na transferência, é estruturalmente impossível cifrar o próprio lugar que ele ocupa. 

Poder biotecnológico

A internet encarna também um vetor de poder. De liberdade e de poder. Deve-se certamente interpretar na criação do Alfabeto – o conglomerado de grupos pertencentes ao Google para desenvolver diferentes filiais em cartografia (Google Maps), em pesquisa médica e de saúde (Calico), em educação (Google for Education), em inteligência artificial, em conectividade urbana – a ambição do gigante da informática de inscrever a linguagem algorítmica no centro da experiência do ser falante e em todos os campos da vida. Como o aponta Éric Sadin, autor crítico da extensão liberal-digital dos algoritmos e dos GAFA (Google, Apple, Facebook e Amazon)[8], com o projeto dessa extensão digital nós assistimos à constituição de uma nova Weltanschauung[9] soft, que busca realizar pela via digital o projeto cibernético tal como ele pode ser formulado nos anos 1950, e do qual Lacan já fazia eco em seus primeiros seminários[10]. Norbert Wiener, fundador da cibernética e introdutor do termo feedback na ciência, já havia teorizado o princípio de uma sociedade estruturada como um amplo sistema de informação e constantemente regulado por um feedback generalizado. Com os microprocessadores, os chips e os captadores apoiados aos corpos e aos objetos da tecnologia, estão realizando a sociedade ecológica no nível dos sistemas, analisado por Wiener. Será o ser falante engolido por esse funcionamento? Qual lugar restaria para sua fala para que ela não seja integrada ecologicamente a esses sistemas de maneira difusa?

Se o rizoma deleuziano é frequentemente evocado para caracterizar a estrutura da rede, as sociedades de controle que o filósofo teorizou conhecem, com o desenvolvimento dos algoritmos, uma mutação particular, se orientando antes no sentido das novas formas de poder do que a técnica permite. Mais do que Vigiar e punir, trata-se de uma submissão voluntária do internauta a deixar “conduzir suas condutas”. A mutação da ordem antiga do poder em poder biotecnológico, que Michel Foucault havia apontado em seus seminários do fim dos anos 1970, encontra com a extensão da internet uma verificação. 

Os algoritmos da psicanálise

Esse belo título de um artigo de Jacques-Alain Miller[11] merece ser retomado à luz da formidável extensão que conheceram os algoritmos em sua aplicação digital, que poderia ser comparada ao lugar que eles ocupam na psicanálise.

Lacan utilizou os algoritmos em diferentes momentos de seu ensino, desde “A carta roubada” até o signo linguístico saussuriano, que ele nomeará de algoritmo devido à superposição do significante sobre o significado produzir invariavelmente a divisão de todo e qualquer signo linguístico, dando por essa divisão a chave da interpretação através do equívoco.

Outro algoritmo, aquele da transferência, traduz esse fato na inscrição que a leitura do texto inconsciente acha no encontro com o analista. Esse algoritmo permite passar, assim como Miller o demonstra em seu artigo, da sequência lawless, presente no postulado da associação livre e dos significantes em princípio não articulados, a uma sequência lawlike, na qual a lei em questão é ditada pelo algoritmo da transferência. Esse algoritmo dá a combinatória que reúne os significantes esparsos no Outro, declinando a cadeia da associação livre que permite emergir no a posteriori a lei que não é outra que aquela que a própria sequência constitui. Miller não hesitou em defender a ideia de que poderia haver, da mesma maneira, um algoritmo do passe. Podemos nos perguntar: qual relação esse algoritmo estabelece com os significantes mestres do sujeito, na medida em que um algoritmo constitui uma combinatória ou série de instruções significantes na análise e isoladas a partir da repetição?

Os algoritmos isolados na análise encontram um lugar reduzido na dimensão do semblante em relação o gozo no último e no ultimíssimo ensino de Lacan. Na medida em que se trata de precisar a relação particular que o falasser estabelece com o gozo, podemos medir o alcance limitado que uma perspectiva somente algorítmica no passe teria em relação à perspectiva do matema ou dos nós. 

A inteligência artificial e o ser falante

A inteligência artificial designa a capacidade de certos algoritmos de gravar os comportamentos de um usuário para predizer seus comportamentos futuros e, quando eles são programados para isso, escolher eles mesmos um critério a otimizar, independentemente da vontade da máquina e do programador. Os algoritmos que recomendam livros a comprar ou filmes a assistir na Amazon ou no Netflix pertencem a essa categoria: eles operam por reforço comportamental, por uma aplicação do comportamentalismo à tecnologia. Eles se baseiam estritamente no comportamento digitalizado do comprador, para recomendar produtos e otimizar sua atenção diante do bombardeamento de ofertas comerciais. Os algoritmos “aprenderiam”, assim, à maneira de EdgeRank, o algoritmo presente no Facebook que te propõe as publicações de seus amigos segundo a quantidade de vezes em que você consultou suas páginas ou segundo o número de vezes que você curtiu suas publicações. Esse algoritmo é, de bom grado, completamente fechado a toda contingência.

Constata-se assim um efeito de a posteriori e de feedback presente no fato de “aprender” quais são os comportamentos dos usuários que se servem e se adaptam a esse uso. O determinismo desse comportamento dos algoritmos é unívoco para assegurar a plasticidade e sua aprendizagem. O deep learning desenvolvido atualmente pelo brain project do Google, a leitura por algoritmos de imagens e sua reprodução interpretando essas imagens, se apoia sobre as pesquisas em neurociências sobre o funcionamento das redes neuronais. As novas conexões sinápticas que a experiência supõe em neurociências, a neuroplasticidade, se aplica de agora em diante aos algoritmos, programando-os para desenvolver novas conexões e se adaptar aos novos inputs recolhidos pelos captadores.

Mas a utilização do termo inteligência, aqui, permite medir a ironia que Lacan mantinha a respeito desse termo da psicologia, que ele unia ao adjetivo “animal”. De fato, a inteligência supõe a aprendizagem dos comportamentos por condicionamento ou reforço dos inputs que permitem ao organismo aprender aquilo que ele deve fazer ou não para evitar certos estímulos. Assim, nossos algoritmos e nossas máquinas podem tornar-se inteligentes, e saudamos hoje essas proezas e sucessos tecnológicos. Começa-se a temer também que isso possa dar corpo, em um futuro próximo, ao fantasma da ficção científica da dominação do homem pela máquina. O ser falante é pouco inteligente: ele repete, segundo um programa de gozo a cada vez singular, seu próprio algoritmo, situações similares e ele precisa da experiência da análise para poder isolar os algoritmos que comandam suas cadeias significantes e se separar delas.

O falasser sobreviverá à digitalização do mundo se soubermos nos orientar a partir do real.  

Tradução: Olívia Loureiro Viana
Revisão: Fabian Fajnwaks

Originalmente publicado na revista La Cause du Désir, número 97: Internet Avec Lacan. Navarin Éditeur, novembro de 2017. Gentilmente cedido pelo autor para tradução e publicação na Revista Derivas Analíticas.


Notas e referências 

[1] CARDON, D. À quoi rêvent les algorithmes. Paris: Seuil, 2015. p. 70. 

[2] LACAN, J. La Troisième. La Cause freudienne, Paris, n. 79, p. 11-33, oct. 2011. 

[3] MILNER, J.-C. Clartés de tout: De Lacan à Marx, d'Aristote à Mao. Paris: Verdier, 2011. 

[4] KANT, E. Critique de la faculté de juger. Trad. A. Philonenko. Paris: Vrin. p. 215 (§ 75). 

[5] LACAN, J. Le séminaire, livre XVIII: D'un discours qui ne serait pas du semblant. Texte établi par J.-A. Miller. Paris: Seuil, 2007. p. 28. 

[6] Cf. LAURENT, É. Un réel pour le XXIe siècle. Entrevista preparatória do IX Congresso da EMP de abril de 2014, Un réel pour le XXIe siècle, realizado por Anaelle Lebovits-Quenehen. Transcrição disponível no blog preparatório do congresso. 

[7] Cf. SADIN, É. La vie algorithmique: Critique de la raison numérique. Paris: Éditions L'Échappée, 2015 e La silicolonisation du monde: L'irrésistible expansion du libéralisme numérique. Paris: Éditions L'Échappée, 2014. 

[8] Visão de mundo, em alemão. 

[9] Cf. LACAN, J. Le séminaire, livre II: Le Moi dans la théorie de Freud et dans la technique de la psychanalyse. Texte établi par J.-A. Miller. Paris: Seuil, 1978. p. 339-354. 

[10] Cf. MILLER, J.-A. Algorithmes de la psychanalyse. Ornicar?, Paris, n. 16, p. 15, outono 1978.  


 

* Fabian Fajnwaks é psicanalista, membro da ECF e da EOL/AMP

 

 

 Imprimir  E-mail