Sociologia e Comunicação/Novas Mídias, Cultura do Algoritmo e Práticas Socioculturais

Origem: Wikilivros, livros abertos por um mundo aberto.

Novas Mídias?[editar | editar código-fonte]

As chamadas "novas mídias" são um tipo de "mídia" muito particular.

Elas não são apenas um suporte ou um meio para veicular conteúdos diversos (texto, áudio, vídeo, fotos etc.). Tudo o que existe nela assume a forma de um código binário, de um programa ou de um conjunto de instruções que devem ser executados para que esses conteúdos existam, ou seja, esses arquivos precisam ser "executáveis" ou "emulados" por programas específicos.

Uma extensão . pdf pode não abrir em qualquer sistema operacional ou programa. A defesa da interoperabilidade entre sistemas e a criação de extensões livres ou programas livres fazem parte desses questionamentos levantados aqui.

As mídias digitais e a internet de um modo geral são "meios" muito particulares, portanto. Para que existam, eles precisam estabelecer um tipo de comunicação muito particular entre as próprias máquinas e uma comunicação especial entre essas máquinas e os seres humanos (JOHNSON, 2001; LÉVY, 2006; MANOVICH, 2001, 2013).

Manovich (2001) observa que estamos diante de um nova configuração midiática que precisa integrar de modo complexo a chamada camada cultural e a camada computacional. Esse era um grande sonho da Cibernética de Norbert Wiener.

A arquitetura dessa camada computacional depende de uma materialidade específica (hardware), um sistema binário de notação, uma sintaxe algorítmica e programas específicos para sua existência efetiva. Já a capacidade de aproximar essa arquitetura computacional do entendimento humano fica a cargo das interfaces.

O que é importante constatar é que a computação e os meios de comunicação, duas áreas fundamentais para o funcionamento do mundo moderno, desenvolveram-se, paralelamente, até os anos 1970 (BENIGER, 1986). A partir daí, o próprio significado da computação e dos computadores foi mudando radicalmente, fazendo com que se aproximassem cada vez mais de uma espécie de máquina cultural. Os computadores passaram a introduzir uma lógica própria e muito particular aos produtos culturais e ao funcionamento dos meios de comunicação (tanto tecnicamente, quanto economicamente - como um certo modelo de negócios) Não é muito difícil verificar as consequências, sociais, políticas, educacionais, culturais desse processo..

Os meios de comunicação e a computação passaram a formar, portanto, um novo sistema socio-técnico. que alterou as formas de registro, processamento, edição, distribuição, armazenamento da informação. Para entender esse processo, precisamos identificar cinco princípios que caracterizam o “novo” nessas novas mídias digitais.

Em primeiro lugar, as formas simbólicas e culturais humanas são convertidas em uma lógica computacional baseada em representação numérica ou binária. Elas se tornam computáveis, ou melhor, os objetos das novas mídias são representados matematicamente e podem ser controlados por algoritmos.

A sintaxe desses códigos é organizada de modo a compor uma estrutura modular (que permite modificações por camadas ou blocos independentes de dados) que seguindo um conjunto de instruções (algoritmos) funciona de modo automatizado (que não dependem necessariamente de uma atividade humana na sua execução). Esse processo automatizado permite um enorme grau de variabilidade aos seus objetos (capacidade de ação responsiva, adaptável a múltiplas plataformas - no caso dos smartphones, p.ex. - e a múltiplos tipos de escalas de aproximação - no caso dos mapas).

Essas novas possibilidades interferem na lógica cultural que passa a integrá-las no processo criativo, gerando o que Manovich chama de transcodificação.

Para Manovich (2005, 2013) podemos chamar esses códigos/progrmas de softwares culturais, a cola invisível que liga comunicação, escrita, representação, análise, simulação, memória, visão, interação, ou seja, todo esse conjunto de atividades que associamos à Cultura.

A Cultura do Algoritmo[editar | editar código-fonte]

As novas mídias e a internet não compreendem apenas os meios materiais de telecomunicação, as mensagens e os seres humanos; elas são povoadas por certos “seres estranhos, meio textos, meio máquinas, meio atores, meio cenários: os programas” (LÉVY, 1999 p. 41). Podemos chamá-los, também, de agentes (JOHNSON, 2001) orientados por códigos, protocolos, algoritmos. Alguns, inclusive, teriam a capacidade de "aprender" os padrões culturais dos seres humanos.

Esses algoritmos são programados para funcionar sem intervenção humana e é praticamente impossível conhecê-los e controlá-los de uma forma transparente. Eles são uma espécie de "caixa-preta" e a única forma de acompanhá-los acaba sendo, também, por meio de outras ferramentas algorítmicas (GILLESPIE, 2014).

Striphas (2015) observa que esses agentes acabam interferindo nos princípios de autoridade ou nos critérios de relevância de muitos assuntos que afetam nossos relacionamentos sociais. Valendo-se do Big Data, eles são capazes de "identificar" padrões que marcam nossas relações afetivas, comerciais, políticas etc. A relevância ou não de uma boa parte dos assuntos que nos dizem respeito está sendo lentamente mediada para os algoritmos sem que sequer nos demos conta disso.

Esses algoritmos são, então, um novo tipo de mediadores automatizados, anunciados como os heróis de um mundo que tenta escapar da entropia.  Cheney-Lippold (2011) chega a tratá-los como objetos culturais incorporados e integrados aos sistemas sociais, gerando uma espécie de soft biopolitic (uma referência à Biopolítica identificada por Foucault).

Gillespie (2012) identifica seis dimensões dos algoritmos que interferem nos nossos critérios de relevância pública da informação,

Primeiro, os dados precisam ser coletados de uma certa forma e precisam assumir uma forma “legível” para os softwares.Esse já é um padrão de inclusão ou exclusão (1) de dados que podem ser submetidos à forma algorítmica,

A identificação algorítmica de padrões (2) a partir das condutas dos usuários da rede (digital fingerprints - identidade algorítmica) produzem expectativas ou ciclos de antecipação ou previsão de condutas.

Como estamos falando de critérios ou avaliações de relevância(3), precisamos lembrar que definir relevância de alguma coisa é um assunto bastante polêmico. Isso significa que essa questão deveria ser submetida a um debate público, o que não ocorre. Na maior parte das vezes, os algoritmos são produzidos por grupos ou empresas privadas (marcadas pelo sigilo) e que podem ser muito facilmente e radicalmente de um modo praticamente, invisível. (GILLESPIE, 2014).

Outra dimensão submetida a discussão é a da promessa de uma objetividade algorítmica(4). Culturalmente (para a maior parte das pessoas leigas), o algoritmo é identificado com uma segura garantia de imparcialidade por parecer um objeto "técnico". A partir disso, sua relevância pública de "neutralidade técnica", faz dele um poderoso estabilizador da confiança ou da crença em determinados assuntos.

Precisamos falar de seu enredamento nas práticas sociais (5). Se os algoritmos estabelecem padrões de relevância, eles passam a definir, indiretamente, as condutas dos usuários. Eles passam a se adaptar aos critérios que desconhecem como condição de seu própria visibilidade ou relevância - tornar-se algoritmicamente reconhecível.

Esse enredamento, por outro lado, pode levar a um debate político importante por parte dos usuários que acabam por encontrar em um conjunto de grupos os seus porta-vozes pela transparência do debate.

Temos, por fim, a produção de um público calculável (6), os padrões identificados não são padrões genéricos do comportamento social, são padrões alcançados a partir de registros matematicamente configuráveis desse comportamento, o que possibilita a sua leitura massiva por máquinas (networked publics).

A arquitetura da comunicação[editar | editar código-fonte]

O computador é um objeto técnico? social? cultural? político?

Vamos chamar atenção para o fato de que não havia nada nos computadores dos anos 1940 que pudesse associá-los a máquinas de representação, expressão cultural ou comunicação como ficaram conhecidos os PC (Personal Computer). Foram alguns engenheiros como Douglas Engelbart, Ivan Sutherland e Ted Nelson, Richard Stallmann, entre outros, que passaram a fazer essa diferença (Manovich. 2013).

A visão contracultural de pessoas que viviam na Califórnia, nos anos 1960-1970, retratadas por Tom Wolfe no seu livro The Electric Kool-Aid Acid Test, pessoas como Stewart Brand, muito envolvido com as ideias de Engelbart, criador da Whole Earth Catalogue e co-fundador da primeira comunidade online nos anos 1980 (a WELL "Whole Earth 'Lectronic Link) foi fundamental nesse processo.

Essa mudança conceitual a respeito do computador pode ser encontrada nas pesquisas de Alan Kay e seu grupo no projeto PARC da Xerox. Foi nele que um dos primeiros modelos de interface para PCs: a interface gráfica do usuário (GUI - graphic user interface). Foi a partir dela, que os computadores passaram a se tornar acessíveis a pessoas sem nenhum conhecimento de computação.

Manovich (2001), a exemplo de Alan Kay, considera o computador um tipo de meta-mídia.[1]

É impossível analisar as possibilidades e problemas trazidos pelo encontro entre comunicação e computação sem entender as cinco principais características do computador, vistas no início deste capítulo: a representação numérica, a modularidade, a automação, a variabilidade e a transcodificação.

Quaisquer objetos (em formato digital) podem ser facilmente recortados, copiados, colados, movidos, modificados, transferidos, sofrer operações de zoom e serem submetidos aos mais diversos tipos de filtros. Eles podem ser identificados, procurados, reparados, ordenados por meta-dados etc.

História da Inteligência Artificial


Referências

  1. Understanding Meta-Media vai tomar toda a atenção da parte 1 do seu livro e é uma clara referência à Understanding Media, obra clássica de Marshall McLuhan. Software takes command, o título do livro, também é uma referência a Mechanization takes command, outra obra clássica de 1948, escrita por Siegfried Giedion.

TEXTO_BASE[editar | editar código-fonte]

GILLESPIE, Tarleton. The relevance of Algorithm. In: Gillespie, T, Boczkowski, PJ and Foot KA (eds). Media Technologies: Essays on Communication, Materiality and Society, Cambridge, MA: MIT Press, 2014 pp. 167-193

MANOVICH, Lev. Novas mídias como tecnologia e ideia: dez definições. In: LEÃO, Lucia. O chip e o caleidoscópio: reflexões sobre as novas mídias. São Paulo: Ed. SENAC, 2005.

SALGADO, Thiago Barcelos Pereira. PÚBLICOS ALGORÍTMICOS: Relevância e recomendação no YouTube . In:  HOMSSI, Aline Monteiro ... et al (org). Tempos de rupturas: críticas dos processos comunicacionais,Ouro Preto: Universidade Federal de Ouro Preto, 2017

Tom Wolfe's The Electric Kool-Aid Acid Test

Turner's 2006 book, From Counterculture to Cyberculture: Stewart Brand, the Whole Earth Network and the Rise of Digital Utopianism

Interview

Stewart Brand's Whole Earth Catalog, the book that changed the world - Carole Cadwalladr - The Guardian, 05/05/2013

REFERÊNCIAS[editar | editar código-fonte]


The Algorithmic Justice League – UNMASKING BIAS – Joy Buolamwini – MIT Media Lab, 12/12/2016

An unseen force is rising—helping to determine who is hired, granted a loan, or even how long someone spends in prison. This force is called the coded gaze. However, many people are unaware of the growing impact of the coded gaze and the rising need for fairness, accountability, and transparency in coded systems. Without knowing discriminatory practices are at play, citizens are unable to affirm their rights or identify violations. The Algorithmic Justice League aims to:

  1. highlight algorithmic bias through provocative media and interactive exhibitions
  2. provide space for people to voice concerns and experiences with coded discrimination
  3. develop practices for accountability during the design, development, and deployment phases of coded systems.

Projeto de Joy Buolamwini (@jovialjoy) combate discriminação nos algoritmos - Blog do Tarcizio Silva, 09/03/2017 

Brasileiro aprovado em Stanford aprendeu a programar aos 11 anos - Ana Carla Bermúdez Do UOL, em São Paulo 09/04/2017 (site - orçamento federal - criado por ele)

VIANNA, Hermano (blog). Inteligência Artificial Antropófaga - acessado em 30/10/2017

Critical Algorithm Studies: a Reading List -Social Media Collective (curadoria de temas relacionados aos algoritmos)

O algorítmo é mais embaixo – Tatiana Dias (texto) Sollen Robic, Marcelo Gerab (direção de arte) – TAB(UOL), 16/04/2018

Big Data Sociology: Preparing for the Brave New World- by Hamish Robertson and Joanne Travaglia. The Sociological Review (blog). Sunday 29th October, 2017

Como uma nova série em app pretende mudar a forma como se assiste televisão Rafael Iandoli - Nexo - 09 Nov 2017

O robô programado para afastar moradores de rua tomou uma sova e foi demitido - Por: Renan Lopes

GIZMODO, 17 de dezembro de 2017

Algoritmos e cosmopolíticas - Amanda Jurno e Carlos d’Andréa, Piseagrama, março de 2018

Beta , a robô feminista

A Distopia do Algoritmo: o streaming está matando a arte da música? -Drew Millard -Dez 5 2017, 8:00am (Os algoritmos não só estão mudando a maneira como escutamos música, mas também a maneira como compomos.)

A distopia do 'me fala o CPF' nas farmácias do Brasil - Brunno Marchetti - VICE,fev 15 2018


A importância dos CODECs e PLUGINS.

"And Then There Was Salsa" Vimeo Experience from The Lovich's on Vimeo.

EXPERIMENTS

Does Facebook Even Know How to Control Facebook? – Alexis C. Madrigal – The Atlantic, Oct 31, 2017  –“No one has ever seen a system like this because none has ever existed. It’s software and interfaces and tools. It’s a social network. It’s an advertising vehicle. It’s the key media distributor. But, like a city or a nation, it’s also human behaviors, habits, norms. Because much of it is built on machine learning, which transforms user behavior into new software adjustments, users and algorithms drive each other by design…If everyone stops clicking on something, soon the software will stop showing it to anyone. If Facebook pushes video into feeds, people will watch more video. These feedback loops are what Facebook is as an attention-gathering machine. “

Data-Mining 100 Million Instagram Photos Reveals Global Clothing Patterns - by Emerging Technology from the arXiv - June 15, 2017

Imagine a future anthropologist with access to trillions of photos of people—taken over centuries and across the world—and equipped with effective tools for analyzing these photos to derive insights. What kinds of new questions can be answered?”

Mapa de Tendências 2017 n0 Medium - Laboratório de Tendências Digitais da PUCPR

Clarity begins with Kumu. - Kumu is a powerful data visualization platform that helps you organize complex information into interactive relationship maps. (Visualização de dados)


Amor artificial - Tendências Digitais - Lucas Bressan - 23 apr.