É com um simpático “boa tarde”, em português quase sem sotaque, que o turco Orkut Büyükkökten recebe o NeoFeed para esta entrevista exclusiva. Fundador da rede social que levava seu nome, o engenheiro de software tem um carinho especial pelo Brasil. Na primeira década dos anos 2000, de todos os usuários da plataforma no mundo, os brasileiros eram seu público mais numeroso e fiel.
“Os brasileiros são apaixonados pela família, pelo trabalho, pelos relacionamentos, pelos hobbies, pelo churrasco de domingo. Há muito amor, gentileza e inclusão na cultura brasileira”, diz Orkut. “E isso se conectava profundamente com os valores que o Orkut buscava amplificar.”
Sediado em San Francisco, o empresário vem com frequência ao Brasil. Só no ano passado, foram quatro visitas, a maioria para participar de conferências e palestras. Agora, em abril, ele retorna para sua estreia no South Summit Brazil, em Porto Alegre, o maior evento de inovação do país, do qual o NeoFeed é parceiro de mídia.
Apesar do bom humor, o fundador do Orkut fala com seriedade sobre o impacto das redes sociais atuais na saúde mental de seus usuários e na sociedade, em geral. Crítico do desmonte dos sistemas de moderação, ele cita as consequências nefastas impostas pelos algoritmos. Da depressão e ansiedade à polarização política e disseminação de desinformação.
“Postagens de ódio são as mais compartilhadas nas redes sociais. Por isso vemos tantos casos de saúde mental, de solidão… Esses algoritmos são otimizados para gerar receita. Quanto mais engajamento, mais lucro”, afirma.
Orkut observa que redes como o TikTok rastreiam cada detalhe da navegação dos usuários — desde o tempo que passa olhando para uma imagem até o tipo de conteúdo que mais chama atenção. Com base nesses dados, constroem um modelo comportamental preciso de cada pessoa.
“O comportamento humano é previsível, e as empresas conseguem manipular isso. O mais perigoso é que você nem sabe que está sendo manipulado”, diz. “É tudo bioquímica — dopamina, endorfina. Você sequer tem consciência do que está acontecendo enquanto está nas redes sociais. Isso gera ciclos viciantes e tóxicos, nos quais a validação online se sobrepõe às interações reais”, explica.
Aos 50 anos, depois do Orkut e da plataforma Hello, lançada em 2016 e encerrada em 2022, o engenheiro está desenvolvendo uma nova rede social com foco em comunidades, moderação ética e interações humanas genuínas, como ele diz. Para isso, conta com a ajuda da inteligência artificial (IA), em ferramentas de reputação e moderação. “Na vida real, a confiança é algo que se constrói e se ganha. Deveria ser o mesmo nas redes", defende.
Leia a seguir os principais trechos da conversa com Büyükkökten.
Dos tempos de Orkut para agora, o que mudou nas redes sociais?
Na última década, as redes se tornaram muito tóxicas. Há muita polarização, raiva, ódio. A rede social virou mídia social. Hoje, não é mais sobre os usuários e, sim, sobre as empresas: viralização, engajamento, tempo de tela e receita.
E como isso repercute nos usuários?
Ao longo do tempo, as consequências têm sido graves: ansiedade, depressão, solidão. Em contraste a plataformas como Instagram e TikTok, nosso objetivo é melhorar a qualidade de vida e reunir as pessoas como uma comunidade. A rede que estamos desenvolvendo é otimizada para o cuidado, a compaixão e a nossa humanidade em comum.
Como as redes sociais atuais se tornaram tóxicas?
Conversei com um amigo que trabalhou no Facebook, e ele me contou que o tipo de conteúdo que mais gera engajamento é o conteúdo de ódio. Esse é o material mais compartilhado nas redes sociais. E é por isso que vemos tantos problemas de saúde mental. Os algoritmos que moldam o que vemos no feed são otimizados para gerar receita. Quanto mais engajamento, mais lucro. E o que gera mais engajamento? Ódio, polarização, desinformação política. Vivemos hoje em uma era em que a maior parte da informação circula pelas redes. Mas, grande parte, é falsa.
"O que gera mais engajamento? Ódio, polarização, desinformação política"
Como você avalia as mudanças nas políticas de moderação do Facebook?
É horrível. Há uma quantidade absurda de desinformação circulando. Vejo meus próprios amigos compartilhando coisas que são claramente falsas. É por isso que precisamos tanto de mecanismos de checagem de fatos. Alguém precisa verificar o que está sendo postado para garantir uma comunidade saudável. Pessoas literalmente morreram por acreditarem em mentiras, como as que circularam sobre vacinas, por exemplo. Essa desinformação afeta a saúde pública.
Esse movimento tem cunho político?
Li recentemente um livro escrito por um ex-funcionário do Facebook. Nele, o autor afirma que o próprio Mark Zuckerberg basicamente admitiu que o Facebook foi uma das razões pelas quais Donald Trump foi eleito. E há muitos agentes mal-intencionados tentando manipular a informação — sejam da Rússia, da China ou até mesmo da Europa. Isso corrói a verdade. E quando a verdade se esvai, pessoas acabam conquistando poder político massivo com base em desinformação. Isso é extremamente perigoso para a sociedade. Precisamos escolher nossos líderes com base em fatos reais, não em mentiras.
Então, é inegável que as redes sociais tradicionais manipulam a verdade?
Com certeza.
E como vocês combatem a desinformação na plataforma que estão criando?
Combatemos por meio da reputação. Na vida real, quando você conhece alguém pela primeira vez, essa pessoa é um estranho. Com o tempo, ela pode se tornar um conhecido, um amigo, alguém próximo. Na vida real, a confiança é algo que se constrói. E deveria funcionar assim também nas redes. Hoje, qualquer pessoa pode entrar no Facebook ou no Instagram, publicar desinformação e atingir uma audiência enorme. É preciso conquistar confiança antes de poder se comunicar com o grande público. A solução que encontramos para isso é o sistema de reputação.
"Na vida real, a confiança é algo que se constrói. E deveria funcionar assim também nas redes"
Como vocês têm usado a inteligência artificial?
Usamos inteligência artificial e aprendizado de máquina para apoiar tanto a moderação quanto a reputação. Mas, infelizmente, a IA está sendo usada de forma errada nas redes sociais. Estima-se que 30% do conteúdo do Facebook seja gerado por IA.
Como isso acontece na prática?
Há agentes de IA conversando entre si — e essas interações não envolvem pessoas reais. No Instagram, há perfis automatizados que postam fotos, respondem a comentários, parecem gente de verdade — mas não são. E vamos ver cada vez mais disso. O Instagram, inclusive, chegou a colocar um botão de “agente de IA” nas postagens. Mas isso é o oposto do que precisamos. Estamos tentando nos reconectar com pessoas reais.
E como fica a privacidade?
É uma grande preocupação — especialmente quando não há transparência sobre como os dados são usados. No Orkut, por exemplo, tínhamos comunidades públicas, e todo mundo sabia que eram públicas. Já as conversas privadas ficavam restritas entre você e seu amigo. Hoje, as plataformas têm termos de uso enormes, que ninguém lê. E as empresas não são claras sobre como e com quem os dados são compartilhados. Isso gera consequências sérias. Pense no TikTok: se você pausa por um décimo de segundo num vídeo, isso já é registrado. A plataforma constrói um modelo detalhado do que você gosta, do que te atrai, do que chama sua atenção.
"O comportamento humano é previsível. E as empresas se aproveitam disso para manipular os usuários"
É uma forma de manipulação, não?
O comportamento humano é previsível. E as empresas se aproveitam disso para manipular os usuários — o que é perigosíssimo. O pior é que você nem percebe que está sendo manipulado. É tudo bioquímica — dopamina, endorfina. E você sequer tem consciência do que está acontecendo enquanto navega. Isso gera ciclos viciantes e tóxicos, nos quais a validação online se sobrepõe às interações reais.
Isso representa uma ameaça à democracia?
Uma enorme ameaça. Veja o Twitter [atual X], por exemplo. Eles abandonaram o gráfico social e passaram a operar como um feed “para você”, cheio de desinformação, extremismo e opiniões radicais. É impossível confiar no que se vê por lá. Há muitos bots interagindo com o seu conteúdo e com o de outras pessoas. É um ambiente tóxico. Quando Elon Musk assumiu o Twitter, uma das primeiras coisas que ele fez foi mexer na moderação. Mas moderação é essencial para manter a comunidade saudável. Existe muito conteúdo perigoso circulando: violência armada, racismo, terrorismo, pornografia infantil. É fundamental ter políticas claras, tecnologia e pessoas treinadas para remover esse tipo de conteúdo.
Voltando aos anos 2000... Como você explica o sucesso do Orkut no Brasil?
Os brasileiros são apaixonados pela família, pelo trabalho, pelos relacionamentos, pelos hobbies, pelo churrasco de domingo. Há muito amor, gentileza e inclusão na cultura brasileira. E isso se conectava profundamente com os valores que o Orkut buscava amplificar. O Orkut era sobre interações espontâneas, encontros inesperados, experiências reais com pessoas reais.
Se você pudesse voltar no tempo, o que faria de diferente com o Orkut?
O maior problema foi que o Orkut era um produto do Google. Era uma marca à parte, então estávamos sempre limitados ao que o Google oferecia. Nossa equipe era pequena — talvez 30 pessoas — e mesmo assim o Facebook levou seis anos para alcançar o Orkut no Brasil. Se tivéssemos os recursos certos, a história teria sido bem diferente.