Quem diria? Não promover conteúdo polêmico reduz polarização em redes sociais

Os efeitos observados foram semelhantes entre as afiliações políticas, sugerindo que a intervenção beneficia os usuários independentemente de seu partido político

Créditos: Deagreez/ Getty Images/ Flyd/ Unsplash

Tiziano Piccardi 2 minutos de leitura

Reduzir a visibilidade de conteúdo polarizador em feeds de mídias sociais pode diminuir consideravelmente a hostilidade partidária. Para chegar a essa conclusão, desenvolvemos um método que nos permitiu alterar a classificação dos feeds das pessoas, algo que antes só as empresas de mídias sociais podiam fazer.

Reclassificar os feeds de mídias sociais para reduzir a exposição a publicações que expressam atitudes antidemocráticas e hostilidade partidária afetou as emoções das pessoas e suas visões sobre pessoas com opiniões políticas opostas.

Como apenas as plataformas de mídias sociais podem modificar seus algoritmos, desenvolvemos e lançamos uma ferramenta web de código aberto que nos permitiu reclassificar os feeds de pessoas que concordaram em participar do estudo no X em tempo real.

Com base na teoria das ciências sociais, usamos um modelo de linguagem abrangente para identificar publicações com potencial para polarizar as pessoas, como aquelas que defendem a violência política ou pedem a prisão de apoiadores do partido opositor.

Crédito: Freepik

Essas publicações não foram removidas; elas simplesmente foram classificadas em uma posição inferior, exigindo que os usuários rolassem mais a tela para vê-las. Isso reduziu o número de publicações desse tipo que os usuários visualizavam.

Realizamos esse experimento por 10 dias nas semanas que antecederam a eleição presidencial dos EUA de 2024. Descobrimos que reduzir a exposição a conteúdo polarizador melhorou muito os sentimentos dos participantes em relação a pessoas do partido opositor e reduziu suas emoções negativas ao navegar pelo feed.

É importante ressaltar que esses efeitos foram semelhantes entre diferentes afiliações políticas, sugerindo que a intervenção beneficia os usuários independentemente de sua filiação partidária.

POR QUE ISSO É IMPORTANTE

Um equívoco comum é que as pessoas precisam escolher entre dois extremos: algoritmos baseados em engajamento ou feeds puramente cronológicos. Na verdade, existe um amplo espectro de abordagens intermediárias, dependendo da sua otimização.

Os algoritmos de feed são normalmente otimizados para capturar sua atenção e, como resultado, têm um impacto significativo em suas atitudes, humores e percepções dos outros.

Por esse motivo, há uma necessidade urgente de estruturas que permitam que pesquisadores independentes testem novas abordagens em condições realistas.

UM CAMINHO PARA ALGORITMOS ALTERNATIVOS

Nosso trabalho oferece um caminho a seguir, mostrando como os pesquisadores podem estudar e prototipar algoritmos alternativos em escala. Ele demonstra que, graças aos modelos de linguagem, as plataformas finalmente têm os meios técnicos para detectar conteúdo polarizador que pode afetar as atitudes dos usuários.

Os grandes modelos de linguagem (LLMs, na sigla em inglês) são um modelo de aprendizado de máquina usado na inteligência artificial generativa, capaz de interpretar diferentes funções.

Os posts foram classificados em posição inferior, exigindo que os usuários rolassem mais a tela para vê-los.

Este estudo representa nosso primeiro passo para projetar algoritmos que estejam cientes de seu potencial impacto social.

Muitas questões permanecem em aberto. Planejamos investigar os efeitos a longo prazo dessas intervenções e testar novos objetivos de classificação para abordar outros riscos ao bem-estar online, como saúde mental e satisfação com a vida.

Trabalhos futuros vão explorar como equilibrar múltiplos objetivos, como contexto cultural, valores pessoais e controle do usuário, para criar espaços online que apoiem melhor a interação social e cívica saudável.


SOBRE O AUTOR

Tiziano Piccardi é professor assistente de ciência da computação na Universidade Johns Hopkins. saiba mais