Figurinha carimbada nos cursos de ciências da computação e engenharia na Universidade de Stanford, o professor Mehran Sahami também circula em discussões menos óbvias, como a ética. "Não se pode excluir a tecnologia desse debate", afirma ao NeoFeed.
Por isso, ao lado dos colegas Rob Reich, filósofo; e Jeremy Weisntein, cientista político, Sahami assinou o livro "System Error: Where Big Tech Went Wrong and How We Can Reboot", ainda sem tradução para o português.
Lançada em setembro de 2021, a obra é um conjunto dos debates que os docentes trazem à sala de aula há pelo menos quatro anos. "É preciso questionar quem está controlando os algoritmos, quem decide como os dados serão usados e outras tantas coisas incômodas", diz. "E é urgente que essa discussão ganhe proporções maiores, e não fique apenas em ambiente acadêmico. Por isso que escrevemos o livro".
Antes de entrar para o corpo docente da Stanford, Sahami foi pesquisador sênior no Google, onde atuou por alguns anos. "Quando trabalhei lá, o mantra interno era 'não seja cruel'", relembra, e pondera que a busca pelo lucro tem levado grandes empresas de tecnologia, como essa, a outros caminhos.
Defensor de uma regulamentação mais rígida e da interoperabilidade das plataformas, Sahami afirma ainda que esse mais recente livro é quase um ato de desespero, porque estamos em tempo de corrigir as rotas das big tech, que estão tomando decisões baseadas em interesses próprios, sem considerar o impacto na sociedade.
Em entrevista exclusiva ao NeoFeed, o professor defendeu veementemente a regulamentação das tecnologias e se colocou favorável à proibição de certas fusões e aquisições lideradas pelas big tech – "se o Facebook não tivesse permissão para adquirir o Instagram, haveria ali um concorrente real". Acompanhe a seguir o bate-papo na íntegra:
Você trabalhou para grandes empresas de tecnologia quando elas ainda eram pequenas startups. Você já sabia, naquela época, o potencial dessas empresas? Chegou a ter algum tipo de diálogo com a liderança dessas gigantes sobre ética e privacidade?
Eu trabalhei no Google cerca de 20 anos atrás, quando o mantra da empresa ainda era o famoso "não seja cruel". Acho que, naquela época, a sociedade tinha um sentimento muito positivo em relação a essas companhias, e as consequências negativas de seus produtos ou serviços não era algo que estava à mostra, e ninguém falava disso. A gente não fazia ideia, por exemplo, do impacto que a desinformação teria no campo político. Isso só ficou claro em 2016, quase 10 anos depois que eu deixei o Google.
Você está falando sobre a questão da coleta de dados?
Também, porque isso foi piorando com o tempo. Cada vez coletamos mais dados para alimentar o machine learning, mas no início era impossível enxergar tão longe. O problema é que a motivação sistêmica dessas empresas é o lucro. Quando uma companhia ganha escala e cresce, o peso para trazer mais dinheiro fica maior – e para aumentar o lucro dessa maneira é preciso avançar alguns sinais e coletar mais dados para fazer mais interferências, melhores recomendações, mostrar mais anúncios ou qualquer coisa que seja. São essas motivações que trazem esse impacto negativo para a sociedade. Há 20 anos nada disso estava claro, agora é tudo bastante óbvio.
Você acha que essas empresas seriam tão grandes ou lucrativas caso agissem de forma ética e moral?
O problema é a motivação sistêmica e o que mantém essas grandes companhias nesta direção. Eu tenho amigos que trabalham no Google, amigos que trabalham no Facebook e amigos que trabalham em muitas outras grandes empresas de tecnologia, e todos esses amigos são pessoas bem intencionadas, que estão dispostas a fazer a coisa certa. O que acontece nesse coletivo é que existe uma pressão para mensurar as coisas, tipo o número de vezes que as pessoas interagem em uma plataforma, ou o número de vezes que os usuários clicam em um link. Quando aumentar essas métricas se torna o objetivo principal, muitas vezes as pessoas perdem de vista o impacto das ações que levam ao clique. No final das contas, eu acho que as big tech precisam fazer muito mais para entender, de verdade, como seus produtos e serviços impactam a sociedade e depois agir de forma incisiva para minimizar os efeitos colaterais, mesmo que isso signifique diminuir a lucratividade. É aí que entramos em tensão, porque as empresas não estão predispostas a fazer isso. E então parte da solução que oferecemos no livro é a regulamentação. Você precisa ter regras claras, porque senão a motivação financeira vai puxar o volante para o outro lado.
Quando uma companhia ganha escala e cresce, o peso para trazer mais dinheiro fica maior – e para aumentar o lucro dessa maneira é preciso avançar alguns sinais e coletar mais dados
Muitas das propostas discutidas implicam a autorregulamentação, mas algumas companhias não estão necessariamente interessadas em revisitar algumas de suas escolhas…
Bem, a gente vê alguns esforços para tentar combater fake news, com retirada de conteúdo ou algum tipo de alerta nas mensagens suspeitas, mas, ao mesmo tempo que as empresas se empenham em fazer isso, a gente percebe que elas tomam decisões políticas que não são benéficas. O Facebook é um ótimo exemplo. A rede social de Mark Zuckerberg permitiu que posts ou anúncios com notícias falsas fossem impulsionados em 2016. O problema é que não existia uma regulamentação a respeito disso, então as empresas têm carta branca para decidir sozinhas o que fazer – e não necessariamente elas, as companhias, escolhem o que é melhor para a sociedade como um todo.
Esse tópico de regulamentação é bastante complexo nos Estados Unidos. Por que é importante mudar isso?
Vou te dar um exemplo que está no livro, tá? Essas big tech emolduram essa complexidade numa moldura simplista. Eles basicamente pensam assim: "não tá gostando do Facebook? Então apague sua conta e não o use mais". Basicamente, a defesa deles é de que tudo se trata de uma escolha, sabe? Num primeiro momento pode até fazer sentido: se não gosta de um serviço, não use. Agora, me permita usar uma analogia. Quando os carros estavam sendo desenvolvidos, não havia uma legislação para controlar sua qualidade e segurança. Na época, era essa discussão – se você não acha que carros são seguros, não os dirija e embarque neles. A grande verdade é que tivemos diversos acidentes e muitas mortes por conta dessa falta de regulamentação. Assim criamos as faixas, os faróis e os códigos todos que aprendemos na autoescola. Precisamos fazer o mesmo na tecnologia.
Você acha que o Meta e toda essa história de realidade virtual e metaverso adiciona uma outra camada à essa discussão?
Sim, porque à medida que mais interação ocorre no metaverso, isso se torna uma perda ainda maior de privacidade. Nesse ambiente virtual há mais informações que podem ser coletadas sobre nós; todos os tipos de coisas. Depois, me preocupo profundamente com o fato de que, quanto mais criamos uma distração para passar tempo no metaverso, menos nos preocupamos com os problemas no mundo real. E temos muitos problemas no mundo real que não vão desaparecer.
Me preocupo profundamente com o fato de que, quanto mais criamos uma distração para passar tempo no metaverso, menos nos preocupamos com os problemas no mundo real
Por falar em meta e regulamentação, o Facebook foi uma das empresas abordadas por quem defendeu o movimento de "quebra" das big tech. O que você acha disso?
Então este é um ponto interessante, que está sendo discutido em Washington DC. Acho que, para que o antitruste funcione, você precisa combinar a política com uma compreensão da tecnologia.
Como assim?
Se pegássemos o Facebook e o dividíssemos em cinco pequenos Facebooks e disséssemos: Ah, agora temos concorrência. Por causa dos efeitos de rede, as pessoas querem estar na plataforma onde a maioria das outras pessoas está, porque elas querem estar onde seus amigos estão. Eles querem se conectar com eles. Então, se você dividisse o Facebook em cinco empresas ao longo do tempo, o que acabaria acontecendo é que uma dessas empresas atrairia todos os usuários, e as outras quatro falhariam. Então, a pergunta é: como evitar que isso aconteça? Como torná-lo eficaz?
O que sugere?
Interoperabilidade de dados entre plataformas.
Poderia explicar melhor?
Não importa em qual dessas redes você esteja, essas redes são obrigadas a ter APIs e disponibilizar dados para outras redes. Assim, você poderia ter criado suas conexões de amigo em uma rede e perceber que gosta mais das políticas ou recursos de alguma outra rede. Você pode se mudar para lá e todos os seus dados ainda estão disponíveis. Assim, todos os amigos podem ser conectados em várias redes, porque há interoperabilidade entre eles. Em alguns casos, acho que nem é preciso chegar ao ponto de desmembrar empresas, apenas negar certas fusões e aquisições.
Como qual?
Se o Facebook não tivesse permissão para adquirir o Instagram, haveria ali um concorrente real. Da mesma forma, como vimos há cerca de 20 anos, com o julgamento antitruste contra a Microsoft, a companhia não foi dissolvida. Então, acho que não é preciso desmembrar as empresas, apenas ter cuidado com fusões e aquisições e isso pode criar um ambiente no qual você obtém uma melhor concorrência e melhores resultados.
Acho que não é preciso desmembrar as empresas, apenas ter cuidado com fusões e aquisições e isso pode criar um ambiente no qual você obtém uma melhor concorrência e melhores resultados
Você acha que a polarização pode ser um empecilho para a discussão da regulamentação?
Acho que a polarização certamente será um desafio, mas não acho que seja um desafio que não possa ser superado. Vamos precisar de um processo de várias etapas. E a maneira como esse processo de várias etapas funciona é que, em vez de esperar que vamos resolver todos esses problemas com uma única legislação ou um único ciclo regulatório, há certos lugares onde podemos progredir de forma mais óbvia.
O que seria uma forma óbvia de progressão?
Uma legislação sensata de privacidade de dados, por exemplo. Não temos uma política federal de privacidade nos Estados Unidos. Existe uma na União Europeia, que serve de modelo. Existe até uma no estado da Califórnia agora, a Lei de Privacidade do Consumidor da Califórnia, mas não existe uma federal.
Você acha que as questões de ética e privacidade têm sido levadas a sério?
Deveríamos levar isso mais a sério, porque existe uma corrida entre tecnologia e democracia, basicamente. A tecnologia se move mais rápido, não há dúvida sobre isso, já que as empresas estão em um cenário competitivo e estão sempre se esforçando para otimizar as coisas. Agora, seria um erro pensar na democracia como um método de otimização. A democracia deve ser deliberativa, deve levar tempo para entender quais são as preferências políticas das pessoas. Então os prazos são diferentes. Isso não significa que a tecnologia vai ultrapassar completamente a democracia o tempo todo, a democracia precisa ser capaz de criar estruturas mais inovadoras para poder regular a tecnologia em uma base mais razoável. Na verdade, há um exemplo interessante disso em Taiwan, onde eles têm Audrey Tang, a Ministra Digital, que criou um sistema onde você pode propor um conjunto de regulamentações experimentais para ver se funciona ou não. Se tudo der certo, eles seguem adiante, mas se algo não sair como o esperado, eles têm um processo engatilhado para partir para outros regulamentos. Nosso processo democrático lida com muitas questões tecnológicas, e é melhor criar as estruturas para uma regulamentação mais ágil no futuro. Esse é o lugar que precisamos chegar, mas não estamos lá.
Existe uma corrida entre tecnologia e democracia, basicamente
Todos esses pontos são bem abordados no seu livro – como o mercado reagiu a ele?
Curiosamente, todas as empresas que conversamos reagiram de forma positiva, porque elas estão cientes dos problemas. Falamos com muitas pessoas do Facebook, fizemos uma apresentação no Google e outra na Salesforce, além de outras companhias. Sinto que todos estão dispostos a discutir essas questões, já que reconhecem a dimensão do problema. Como já falei antes, são pessoas bem intencionadas, mas elas trabalham em uma empresa que é pressionada por uma motivação financeira. Precisamos entender se há uma solução sensível aqui.
É natural do escritor querer editar sua obra constantemente. Desde a publicação do livro, sentiu a necessidade de mexer em algo?
Excelente ponto. Em 6 de janeiro de 2021, quando aconteceu a invasão ao Capitólio, a gente estava nos últimos retoques do livro. Foi quando Donald Trump foi expulso das plataformas e começou a especulação sobre o seu retorno. Por conta disso, tivemos que reescrever vários trechos, mas um mês depois de concluirmos o trabalho tivemos Francis Haugen, ex-Facebook, denunciando as artimanhas da companhia. O depoimento dela trouxe à tona um monte de coisa, sobretudo como o Facebook tenta equilibrar o impacto que seus produtos causam na sociedade versus o que eles fazem de verdade. Eu adoraria ter explorado isso no livro, mas acredito que conseguimos colocar o ponto principal, que é: essa busca desenfreada por lucro faz com que as empresas tomem decisões que provavelmente não gostaríamos que tomassem.
Que decisões?
No depoimento de Haugen, ela falou como, por exemplo, é sabido que o Instagram é prejudicial para meninas adolescentes, mas eles justificavam suas ações, internamente, dizendo que para 40% dessas meninas, o produto era positivo, e que só era maléfico para 20% dessa população. Se você apenas olhar para os números, é fácil acreditar nessa justificativa, até você se dar conta que, se 20% das adolescentes se sentem pior usando o Instagram, é preciso fazer algo, mesmo que 40% afirmem ter experiências positivas. Se você está levando alguém a pensar em suicídio, esse impacto é e deveria ser muito maior do que pensar que para outras pessoas faz com que elas se sintam um pouquinho melhor e mais próximas de seus amigos, entende?
Se você está levando alguém a pensar em suicídio, esse impacto é e deveria ser muito maior do que pensar que para outras pessoas faz com que elas se sintam um pouquinho melhor e mais próximas de seus amigos, entende?
A grande questão é que essa conta de 20-40% é muito plausível dentro do capitalismo. Seria o caso de revistar esse sistema inteiro?
De fato, o capitalismo é movido pelo lucro, e não são só as empresas de tecnologia que agem dessa maneira. Sendo realista, porém, não acredito que os Estados Unidos vão adotar um novo sistema, mas acredito que temos a chance de criar um ecossistema tecnológico mais saudável para todos.
Já que você continua explorando esse tema em sala de aula, qual é o problema dentro da ética digital que lhe tira o sono?
Minha maior preocupação é a nossa inatividade, nossa passividade, que só piora com o tempo. Sabe, todo mundo viu o impacto que tivemos nas eleições de 2016. Se isso piorar e a gente perder a fé no nosso sistema eleitoral, então nossa fé na democracia estará ameaçada. É aí que mora o problema; onde veremos as consequências mais sérias disso tudo. Muita gente acha que é um exagero da minha parte, mas aí eu lembro que em 2016 muita gente também achava que as redes sociais não teriam impacto algum nas eleições. Hoje está tudo muito claro, e agora que sabemos as consequências, a pergunta que fica é: o que fazemos para mudar isso? Não é uma questão apenas para os reguladores e para as empresas, mas para todos nós. A sociedade precisa se envolver e exigir soluções. Podemos votar e pressionar os eleitos, porque senão entendermos a urgência disso, podemos pagar caro pela nossa passividade.
Você acha que a forma como os algoritmos são desenhados colaboram para a perversidade digital?
Quando a motivação das pessoas é colocar um site no topo da lista de busca do Google, mesmo que isso signifique escrever bobagens e mentiras, acho muito ruim, sim. A gente parte do pressuposto de que qualquer resposta que o Google nos dá é verdade – então é preciso que as pessoas sejam mais céticas também. Diria, aliás, que é por isso que as teorias das conspirações e outras notícias absurdas ganham tração, porque as pessoas querem acreditar nas coisas. As empresas de tecnologia precisam assumir a responsabilidade por isso e criar mais filtros, mesmo que isso possa parecer, de alguma maneira, mais autoritário. As companhias também precisam revisar a forma como recomendam conteúdo.
A gente parte do pressuposto de que qualquer resposta que o Google nos dá é verdade – então é preciso que as pessoas sejam mais céticas também
Qual seria um exemplo disso?
Se você for no Youtube, vai encontrar mais vídeos com "informações" que dizem que a Terra é plana do que os que explicam que ela, na verdade, é redonda. Por quê? Bem, porque a maioria das pessoas sabe que o mundo é redondo, e não há um incentivo para fazer um vídeo que fale essa obviedade. Já as pessoas que estão querendo criar um novo ponto de vista, elas têm uma motivação para criar conteúdo e compartilhar na internet. Dito isso, acho que precisamos de duas coisas: que as plataformas digitais façam um melhor trabalho ao modelar e "etiquetar" o conteúdo distribuído em sua plataforma; e precisamos melhorar o senso crítico das pessoas, para que elas entendam que há muita notícia falsa por aí.
Mas moderar conteúdo é um assunto delicado, porque há áreas cinzentas. Como moderar sobretudo quando se precisa ponderar contexto histórico, cultural e religioso, por exemplo?
Acho importante a gente distinguir o que é fato e o que é opinião, certo? Quando alguém fala da terra plana… é fato que não é. O primeiro passo, portanto, é entender o que é fato e o que é opinião. Nos Estados Unidos a liberdade de expressão é levada a sério, e eu acho que todas as opiniões deveriam ser ouvidas, sem nenhuma censura. Agora, num mundo onde podemos verificar informações e dados, é importante lembrar que nada existe no vácuo. Na pior das hipóteses, os algoritmos podem fazer um trabalho melhor em sugerir conteúdos legítimos que apresentem uma opinião diferente, se for o caso.
E você não acha que isso deveria ser uma discussão global, em vez de cada país tentar resolver isso à sua maneira?
Acho difícil estabelecer um padrão global, porque os países têm regulamentações e culturas diferentes. Os Estados Unidos, por exemplo, são mais tolerantes a qualquer diálogo por conta da liberdade de expressão, enquanto na Alemanha, por exemplo, todo discurso que promova o nazismo é condenado. A China, então, nem se fala. Uma pauta global seria impossível.