Gigantes da tecnologia ainda tropeçando no mundo social que criaram

CIENTISTAS russos REVELAM apenas a descoberta mais poderosa na história da humanidade (Julho 2019).

Anonim

Quem sabia que conectar o mundo poderia ser tão complicado? Talvez algumas das mentes mais brilhantes da tecnologia devessem ter percebido isso.

Proibições da mídia social do teórico da conspiração Alex Jones colocaram o Facebook, YouTube, Twitter e outros em um papel que nunca desejaram - como guardiões do discurso em suas plataformas, decidindo o que deveria e não deveria ser permitido e muitas vezes enfurecendo quase todo mundo no processo. Jones, um provocador de direita, subitamente foi banido da maioria das plataformas sociais esta semana, depois de anos em que ele estava livre para usá-los para promulgar uma série de falsas alegações.

O Twitter, que um de seus executivos uma vez chamou de "ala de liberdade de expressão da festa da liberdade de expressão", continua sendo um símbolo solitário de Jones. A reação resultante sugere que, não importa o que as empresas de tecnologia façam, "não há como agradar a todos", observou Scott Shackelford, professor de direito e ética em negócios da Universidade de Indiana.

Mark Zuckerberg, do Facebook, Jack Dorsey, do Twitter, e os tripulantes do YouTube, do Google, deram pouca atenção a tais consequências, pois construíram seus impérios com metas grandiosas para conectar o mundo e democratizar o discurso. Na época, eles eram os rebeldes com o objetivo de contornar os antigos guardiões - editores de jornais, programadores de televisão e outros tipos de estabelecimentos - e permitir que as pessoas conversassem diretamente entre si.

"Se você voltar uma década, a ideia de falar nas redes sociais é vista como uma luz altamente positiva", disse Tim Cigelske, professor de mídias sociais na Universidade Marquette, em Wisconsin. Houve a Primavera Árabe. Havia histórias de adolescentes gays, lésbicas e transexuais de cidades pequenas encontrando apoio online.

Ao mesmo tempo, é claro, as empresas estavam correndo para construir o maior número possível de audiências, dividir e dividir seus dados de usuários e obter grandes lucros transformando essas informações em anúncios lucrativos direcionados.

O lado sombrio do discurso livre, segundo o raciocínio, se organizaria à medida que as comunidades on-line se modificassem, auxiliadas por algoritmos de computador em rápida evolução e, eventualmente, inteligência artificial.

"Eles escalaram, construíram, queriam gerar receita e também base de usuários", disse o analista de tecnologia Tim Bajarin, presidente da consultoria Creative Strategies. "Aquela era prioridade e o controle de conteúdo era prioridade dois. Deveria ter sido o contrário."

Isso tudo ficou mais chocante quando a eleição do presidente Donald Trump concentrou nova atenção em notícias falsas e campanhas organizadas de desinformação - para não mencionar o fato de que algumas das pessoas que pegaram esses novos megafones da mídia social eram teóricos da conspiração que falsamente chamam fraudes de tiroteios em massa, nacionalistas brancos que organizam comícios violentos e homens que ameaçam mulheres com estupro e assassinato.

Embora as plataformas possam não ter antecipado o influxo de discursos de ódio e a intromissão de potências estrangeiras como a Rússia, a Coréia do Norte e a China, Bajarin disse que elas deveriam ter agido mais rapidamente quando a encontraram. "O fato é que estamos lidando com um admirável mundo novo que eles permitiram que acontecesse, e eles precisam ter mais controle para evitar que isso se espalhe", disse ele.

É mais fácil falar do que fazer, claro. Mas é particularmente difícil para as grandes empresas de tecnologia equilibrar bens públicos como a liberdade de expressão com a necessidade de proteger seus usuários contra assédio, abuso, notícias falsas e manipulação. Especialmente considerando que seus modelos de negócios exigem que eles alienem o menor número de usuários possível, com receio de colocar em risco a enxurrada de dinheiro publicitário.

"Tentar montar uma estrutura para a fala que funcione para todos - e garantir que implementemos efetivamente essa estrutura - é um desafio", escreveu Richard Allan, vice-presidente de política do Facebook, em um post no blog quinta-feira. "Todas as políticas que temos se baseiam em três princípios fundamentais: dar voz às pessoas, manter as pessoas seguras e tratar as pessoas de forma equitativa. As frustrações que ouvimos sobre nossas políticas - externas e internamente também - vêm da tensão inevitável entre esses três princípios. "

Essas tensões forçam algumas das maiores corporações do mundo a decidir, por exemplo, se proibir os nazistas também significa proibir os nacionalistas brancos - e descobrir como distingui-los se não. Ou se dar o pontapé inicial em Jones significa que eles precisam banir todos os fornecedores de teorias falsas da conspiração. Ou se os comentários racistas devem ser permitidos se forem postados, para fazer um ponto, pelas pessoas que os receberam.

"Não acho que as plataformas no fundo do coração gostariam de manter Alex Jones ligado", disse Nathaniel Persily, professor da Stanford Law School. "Mas é difícil encontrar um princípio para dizer por que Alex Jones e outros não seriam removidos."

Embora a maioria das empresas tenha políticas contra o "discurso do ódio", definir o que constitui discurso de ódio pode ser difícil, acrescentou. Até os governos têm problemas com isso. A liberdade de expressão de um país é o discurso de ódio de outro país, punível com pena de prisão.

Facebook, Twitter, Google, Reddit e outros enfrentam essas questões milhões de vezes por dia, enquanto moderadores e algoritmos humanos decidem quais posts, quais pessoas, quais fotos ou vídeos permitir, começar ou tornar menos visíveis e mais difíceis de encontrar. Se eles permitem muito conteúdo prejudicial, eles correm o risco de perder usuários e anunciantes. Se eles forem longe demais e removerem demais, eles enfrentam acusações de censura e viés ideológico.

"Minha sensação é que eles estão jogando tudo na parede e vendo o que pega", disse Persily. "É um problema do tipo" whack-a-mole ". Não são as mesmas ameaças que continuam, e elas precisam ser ágeis o suficiente para lidar com novos problemas."

menu
menu