• Tecnologia
  • Equipamento elétrico
  • Indústria de Materiais
  • Vida digital
  • política de Privacidade
  • Ó nome
Localização: Casa / Tecnologia / Como os algoritmos de mídia social viciante podem finalmente enfrentar um acerto de contas em 2022

Como os algoritmos de mídia social viciante podem finalmente enfrentar um acerto de contas em 2022

techserving |
1534

Diante das alegações de que eles priorizam os lucros sobre as pessoas, o Facebook e o Instagram estão sob pressão crescente para reformar as maneiras pelas quais suas plataformas são construídas para serem viciantes para os usuários.Especialistas dizem que esse aumento do escrutínio pode sinalizar que o modelo de negócios atual do setor de mídia social deve -se a uma interrupção significativa.

Freqüentemente comparado ao Big Tobacco para as maneiras pelas quais seus produtos são viciantes e lucrativos, mas, em última análise.Para ganhar dinheiro, os algoritmos dessas plataformas funcionam efetivamente para manter os usuários envolvidos e rolar através do conteúdo e anúncios de extensão, pelo maior tempo possível.

"[Essas empresas] não estão sendo responsabilizadas por nenhuma de suas práticas comerciais", diz Sherry Fowler, professor de prática em tecnologia da informação e análise de negócios da Universidade Estadual da Carolina do Norte."Acho que estamos no mesmo ponto [com a grande tecnologia] que éramos quando o Big Tobacco foi forçado a compartilhar a pesquisa sobre como seus produtos estavam prejudicando indivíduos.Tinha que haver essa campanha de massa para informar o público porque, naquele momento, muitas pessoas nem sabiam que o tabaco era viciante.Aqui temos algo que é tão viciante e permitimos que as empresas não tivessem que responder a ninguém.Certas indústrias não podem correr desenfreado sem que nenhuma regra seja aplicada.”

Com o crescimento do consenso bipartidário que mais deve ser feito para combater como as principais plataformas das mídias sociais impulsionam o empreendimento, empregando ferramentas algorítmicas que são destrutivas para o bem -estar individual e social, a intervenção do governo parece mais inevitável - e iminente - do que sempre no ano seguinte.

Os parlamentares bipartidários já apresentaram um projeto de lei da casa apelidado de Lei de Transparência da Bolha de Filtro que exigiria que as plataformas ofereçam uma versão de seus serviços em que o conteúdo não é selecionado por "algoritmos opacos" que se baseiam nos dados pessoais do usuário para gerar recomendações.

Como representante republicano.Ken Buck, um dos representantes que patrocina a legislação, disse ao Axios: “Os consumidores devem ter a opção de se envolver com plataformas da Internet sem serem manipulados por algoritmos secretos impulsionados por dados específicos do usuário.”Mas a questão permanece: a mudança real é possível?

O lado sombrio dos algoritmos viciantes

Embora as preocupações sobre os algoritmos viciantes estendam além das duas plataformas de propriedade da Meta, a empresa anteriormente conhecida como Facebook, documentos internos - às vezes chamado de "Documentos do Facebook" - ficou nos últimos meses pelo gerente de produtos do Facebook que virou denunciante Frances Haugen, Haugen fez um focoSobre os efeitos nocivos que o Facebook e o Instagram podem ter especificamente sobre os usuários, e especialmente os jovens usuários.

Em seu testemunho de outubro de um subcomitê de comércio do Senado, Haugen disse que o uso do Facebook da "classificação baseada em engajamento"-um sistema algorítmico que recompensa postagens que geram mais curtidas, comentários e compartilhamentos-e pesado de "interações sociais significativas"-conteúdoIsso gera reações fortes - resultou em um sistema que é um conteúdo divisivo amplificado na plataforma, promoveu o discurso de ódio e a desinformação e incitou violência.

Leia mais: Por que Frances Haugen está "super assustado" com o Metaverse do Facebook

How Addictive Social Media Algorithms Could Finally Face a Reckoning in 2022

No Instagram, esses mecanismos levam crianças e adolescentes a conteúdo prejudicial que pode levar a problemas de imagem corporal, crises de saúde mental e bullying.Pesquisas internas vazadas por Haugen mostraram que alguns dos recursos que desempenham um papel fundamental no sucesso do Instagram e na natureza viciante, como a página Explore, que serve os usuários com curadoria de postagens com base em seus interesses, estão entre os mais prejudiciais aos jovens."Aspectos do Instagram se exacerbam para criar uma tempestade perfeita", dizia um relatório.

A Meta não respondeu imediatamente ao pedido do Time para comentar sobre possíveis mudanças algorítmicas.

Plataformas de vídeo populares como Tiktok e YouTube também foram criticadas por empregar sistemas de recomendação algorítmica que podem levar os espectadores a cair os furos perigosos - e viciantes -, com o New York Times relatando em dezembro que uma cópia de um documento interno detalhando os quatro principais objetivosdo algoritmo de Tiktok vazou por uma fonte que foi “perturbada pelo impulso do aplicativo em direção ao conteúdo 'triste' que poderia induzir auto-mutilação.”

Em resposta a um pedido de comentário, um porta -voz da Tiktok apontou o tempo para um DEC.16 Postagem de redação sobre o trabalho que a plataforma está fazendo para salvaguardar e diversificar suas recomendações de alimentação.

"À medida que continuamos a desenvolver novas estratégias para interromper padrões repetitivos, estamos analisando como nosso sistema pode variar melhor os tipos de conteúdo que podem ser recomendados em uma sequência", lida a postagem.“É por isso que estamos testando maneiras de evitar recomendar uma série de conteúdo semelhante - como em torno de dieta ou condicionamento físico extremo, tristeza ou rompimentos - para proteger contra a visualização de uma categoria de conteúdo demais que pode estar bem como um único vídeo, mas problemáticoSe visto em clusters.”

Falta contínua de transparência

Ainda assim, um dos principais desafios representados pela regulação dessas plataformas é a contínua falta de transparência em torno de seu trabalho interno.

"Não sabemos muito sobre o quão ruim essas redes são, em parte, porque é tão difícil pesquisá -las", diz Ethan Zuckerman, professor associado de políticas públicas, comunicação e informações da Universidade de Massachusetts Amherst.."Estamos confiando nos vazamentos de Frances Haugen, em vez de fazer pesquisas [independentes] porque, na maioria dos casos, não podemos obter os dados que realmente contam a história.”

Quando se trata de discurso de ódio, extremismo e desinformação, Zuckerman diz que o algoritmo pode nem ser a parte mais perigosa do problema.

"Eu tendem a pensar que a parte do algoritmo da história é exagerada", diz ele.“Há uma quantidade decente de pesquisas no YouTube - o que é muito mais fácil de estudar do que o Facebook, por exemplo - que sugere que o algoritmo é realmente apenas uma pequena parte da equação e o verdadeiro problema são as pessoas que procuram odioso oudiscurso extremo na plataforma e encontrando -o.Da mesma forma, quando você olha para algumas das informações erradas e desinformação, há algumas evidências muito boas de que não está necessariamente sendo algoritmicamente alimentado às pessoas, mas que as pessoas estão escolhendo se juntar a grupos em que é a moeda do dia.”

Mas sem a capacidade de obter mais dados, pesquisadores como Zuckerman não conseguem chegar à raiz desses problemas crescentes.

"As pequenas informações que foram disponibilizadas por empresas como o Facebook são intrigantes, mas são apenas dicas do que realmente está acontecendo", diz ele."Em alguns casos, é mais do que apenas a plataforma teria que nos dar mais dados.É que realmente precisaríamos da capacidade de entrar e auditar essas plataformas de uma maneira significativa.”

Referenciando o infame escândalo da Cambridge Analytica - em algum lugar na empresa de consultoria política colheu os dados de pelo menos 87 milhõesem formação.

"Essas empresas afirmam que não podem ser mais transparentes sem violar a privacidade do usuário", diz ele.“O Facebook chama a privacidade como uma maneira de impedir que a pesquisa [de terceiros] ocorra.Portanto, a barreira para [avaliar como o algoritmo realmente funciona] é o Facebook usará a privacidade como uma desculpa para o motivo pelo qual a investigação significativa da plataforma não pode ocorrer.”

No entanto, se o Congresso intervir e aprovar novas leis abordando essas questões, Zuckerman diz que poderia ser um catalisador para mudança real.

"O lugar onde temos a melhor chance de progresso é legislando uma certa quantidade de transparência", diz ele.“Se acreditarmos como sociedade que essas ferramentas são realmente poderosas e causando danos a nós, faz todo o sentido que tentaríamos auditá -las para que possamos entender o que esse dano pode ser.”

A necessidade de intervenção do congresso

Durante a primeira aparição do CEO do Instagram, a primeira aparição do Congresso no Dec.8, vários membros do subcomitê do Senado sobre proteção do consumidor, segurança do produto e segurança de dados adotaram a posição de que os recentes esforços do Instagram para tornar a plataforma mais segura para os jovens usuários são "muito pouco, muito tarde" e que o tempo para se autopolir semA intervenção do congresso acabou.

Essas observações pareciam sinalizar que a legislação regulatória projetada para reinar no Facebook, Instagram e outras plataformas poderiam estar no horizonte no próximo ano.Da perspectiva de Fowler, essa é a única maneira de as ameaças colocadas por algoritmos viciantes, bem como outros aspectos do grande modelo de negócios de tecnologia, começarão a ser mitigados.

"Estou muito duvidoso que, a menos que eles sejam obrigados por lei a fazer algo que eles se auto-corrigirão", diz ela."Não seremos capazes de fazer nada sem o Congresso atuando.Tivemos muitas audiências agora e é óbvio que as empresas não vão se policiar.Não há grandes players de tecnologia que possam regular a indústria porque estão juntos e todos funcionam exatamente da mesma maneira.Então, devemos implementar leis.”

A Lei de Algoritmos de Justiça contra Maliciosos, um projeto de lei introduzido pelos democratas da Câmara em outubro, criaria uma emenda na Seção 230 - uma parte da Lei de Decência de Comunicações que protege as empresas da responsabilidade legal pelo conteúdo publicado em suas plataformas - que responsabilizaria uma empresa responsávelQuando “consciente ou imprudentemente usa um algoritmo ou outra tecnologia para recomendar conteúdo que contribui materialmente para lesões emocionais físicas ou graves.”

No entanto, as divisões partidárias combinadas com o fato de ser um ano eleitoral do Congresso dá uma pausa de Fowler sobre a probabilidade de haver algum progresso tangível feito em 2022.

“Minha sugestão é que [os políticos] avançam sobre o que eles concordam com relação a esse tópico - especificamente na área de como a mídia social afeta menores”, diz ela, “e não se concentra no motivo pelo qual eles concordam, porque têm diferentes razões para os motivospor chegar a uma conclusão semelhante.”

Ainda não se sabe se o Big Tech Giants poderá chegar a um ponto em que eles estão realmente priorizando as pessoas com lucros, mas Zuckerman observa que empresas como o Facebook não têm um ótimo histórico nesse sentido.

“O Facebook é uma empresa fenomenalmente lucrativa.Se eles se preocupam em proteger os usuários de desinformação e desinformação, eles têm enormes quantias de dinheiro para investir nele.Algo que ficou muito claro nos documentos do Facebook é que seus sistemas simplesmente não são muito bons e provavelmente não foram muito investidos em.E esse é o problema que surge de novo e de novo e de novo com eles.”

Em vez disso, Zuckerman sugere que uma maneira diferente de olhar para os danos sociais causados pelas mídias sociais pode ser mais adequada: “Em um certo ponto, temos que começar a nos fazer a pergunta: queremos nossa esfera pública digital, o espaço em que'Estou falando de política e notícias e do futuro, a ser administrado para fins lucrativos?E empresas com fins lucrativos muito levemente regulamentadas.”

More Must-Read Stories From TIME

Escreva para Megan McCluskey em Megan.McCluskey@Time.com.

SHARE THIS STORY