REPORT 2023

La datificazione del giornalismo

Colin Porlezza

Direttore dell’Osservatorio Europeo di Giornalismo.

“L’uomo, creando la macchina pensante, ha compiuto l’ultimo passo verso la completa sottomissione alla meccanizzazione. […] Con il perfezionamento dell’automa l’uomo si troverà completamente alienato dal proprio mondo e ridotto a una nullità. Il regno, il potere e la gloria appartengono ora alla macchina”.

(Lewis Mumford, Le trasformazioni dell’uomo, p. 158.)

Nel lontano 1967, il teorico delle tecnologie Lewis Mumford creò il concetto della cosiddetta “mega-macchina”. Nel suo libro The Myth of the Machine (Il mito della macchina), l’intellettuale statunitense situa questa mega-macchina nell’antico Egitto per descrivere le organizzazioni gerarchiche costituite da decine di migliaia di esseri umani schiavizzati e controllati dal potere di re venerati come degli dei.

In questa mega-macchina, gli schiavi diventano una risorsa trasmettendo la loro energia a un meccanismo più grande che si può sfruttare per costruire intere piramidi. La gestione di tutte queste vite in schiavitù viene attribuita a un apparato militare e amministrativo per assicurarne il controllo e l’utilizzo efficiente. Nella sua opera successiva, Mumford adattò il suo concetto di “mega-macchina” al mondo digitale, sostituendo il re divino con un cosiddetto “Omni Computer”, cioè “l’ultimo modello di computer I.B.M., programmato con zelo dal Dr. Stranamore e dai suoi associati” (1970, p. 273). In questo caso non c’è più un’enorme massa di schiavi costretti a svolgere lavori disumani, ma una “info-macchina” che monopolizza il potere, pronta a elaborare dati “misurati quantitativamente o osservati oggettivamente”. Nella visione critica del progresso sociale da parte di Mumford, gli esseri umani subiscono una disintegrazione totale dell’autonomia dato che vengono ridotti a un semplice ingranaggio della macchina artificiale.

Nell’era del teorico americano, il potere di calcolo dei computer non era ancora sufficientemente sviluppato per poter innescare una rivoluzione riguardo alla società dell’informazione. Ma ciò che l’intellettuale poliedrico descrisse all’inizio degli anni Settanta viene oggi riflesso dalla crescente datificazione del giornalismo digitale: l’uso di dati, algoritmi, così come le infrastrutture tecnologiche da cui dipendono, rappresentano un nuovo tipo di “mega-macchina” che definisce in larga misura il modo in cui le notizie vengono raccolte, prodotte e diffuse.

Come sostengono gli studiosi di giornalismo Seth Lewis e Oscar Westlund, i big data, insieme agli algoritmi e ai metodi computazionali e i relativi processi e prospettive legati alla quantificazione, rappresentano il paradigma del lavoro di produzione dell’informazione.

I dati diventano perciò l’ingrediente principale nel modo in cui il giornalismo può essere ottimizzato, valutato, curato o reso più efficiente. Il sociologo Jason Sadowski (2019) sostiene a questo proposito che “la presunta universalità dei dati riformula tutto come se rientrasse nel dominio del capitalismo dei dati. Tutti gli spazi devono essere sottoposti alla datificazione” La datificazione diventa così il substrato su cui si fonda l’attuale trasformazione del giornalismo.

Ma come siamo arrivati a questa situazione? Per capire l’attuale processo di trasformazione del giornalismo trainato dall’uso e dall’analisi di dati bisogna tener conto di due aspetti: prima di tutto bisogna volgere lo sguardo oltre il confine delle redazioni e capire il modo in cui la società intera è permeata dai dati. Per questa ragione, il fenomeno della datificazione del giornalismo deve essere inserito in un contesto più ampio di trasformazioni sociali e di come il giornalismo interagisce con questi fenomeni sociali. In secondo luogo, è importante tracciare il modo in cui il giornalismo stesso abbia sviluppato un rapporto con i dati, rapporto che è mutato profondamente nel corso della storia professionale.

Partendo dalle interdipendenze tra il giornalismo e gli sviluppi sociali: il giornalismo è sia un mezzo di comunicazione che un fenomeno sociale e, in quanto tale, è sia una forza trascinante che un elemento condizionato nel rapporto riflessivo tra media e cambiamento sociale.

La datificazione come concetto è stata introdotta nel discorso accademico da Viktor Mayer-Schönberger e Kenneth Cukier nel loro libro del 2013 “Big data. Una rivoluzione che trasformerà il nostro modo di vivere e già minaccia la nostra libertà”. Sebbene gli autori leghino il fenomeno alle tecnologie digitali, il concetto è tutt’altro che nuovo: infatti ha una lunga storia, soprattutto nell’ambito della gestione delle popolazioni come nel censimento, nell’organizzazione e nella gestione di stati come anche nella storia della burocrazia. Oggi però, la datificazione è soprattutto legata alla tecnologia digitale e ai big data. In tutta la sua storia, la datificazione è sempre stata assistita dalle tecnologie dei media, anche se in passato i media erano analogici. In questo senso, la datificazione precede la digitalizzazione come scrivono le due ricercatrici Sofie Flensburg e Stine Lomborg in un loro recente articolo.

Dagli anni 80 fino a oggi, le infrastrutture digitali e la digitalizzazione attraverso il Web hanno contribuito in modo massiccio alla creazione, l’elaborazione e l’analisi di dati, arrivando fino al processare dati in tempo reale. In tutto questo, le tecnologie di comunicazione mobili come il cellulare, attraverso loro adozione nelle pratiche sociali e negli spazi privati e pubblici, giocano un ruolo fondamentale nell’aumento vertiginoso della produzione di dati nella società. In più, a partire dalla fine degli anni 2000, le piattaforme social hanno perfezionato un modello di business che è interamente basato sull’estrattivismo dei dati, come scrivono Nick Couldry e Ulisses Mejias, appropriandosi dei nostri dati che poi vengono venduti a chi fa pubblicità.

Queste piattaforme sono gli stessi attori – o “frenemies” come dice la direttrice del Tow Center for Digital Journalism della Columbia University a New York – che esercitano un potere enorme sul giornalismo e le case editrici in quanto determinano in gran parte il modo in cui gli utenti trovano, accedono e consumano le news.

Come dimostrano Rasmus Kleis Nielsen e Sarah Anne Ganter in un recente libro, istituzioni precedentemente indipendenti come i media si trovano sempre più in una posizione di passività visto che dipendono da un piccolo numero di piattaforme potenti e centralizzate se vogliono assicurarsi che i loro contenuti vengono percepiti. In altre parole, i dati – insieme agli algoritmi che li analizzano – sono così diventati un elemento determinante in quasi tutte le sfere della nostra vita.

In tutto questo, il giornalismo stesso è un fenomeno sociale e non può quindi sottrarsi ai processi di trasformazione, soprattutto se i dati e gli algoritmi sono onnipresenti nell’ecosistema mediatico. È dunque costretto ad adattarsi ai cambiamenti dell’intero ambiente comunicativo, adattando ad esempio le pratiche alla nuova materialità basata sui dati attraverso nuovi generi giornalistici quantitativi quali il data journalism, o addirittura il giornalismo computazionale o automatizzato. Questo è però solo una facciata della medaglia: mentre da un lato, la crescente datificazione della società ha fatto sì che il giornalismo possa accedere a un crescente numero di fonti di dati quantitativi, favorendo l’espansione del data journalism, dall’altro, l’ampio uso di algoritmi nella società è diventato un argomento di interesse per il giornalismo. Questo si riflette ad esempio nella creazione di nuovi beat come l’algorithmic accountability reporting, un genere che cerca di analizzare, con l’aiuto di dati, algoritmi e procedimenti sofisticati come il reverse engineering, l’impatto di algoritmi nella società. Il reverse engineering ossia “progettazione all’incontrario” è un processo che consente ai giornalisti, con l’aiuto di sviluppatori o informatici, di analizzare il funzionamento di algoritmi spesso opachi. Attraverso l’immissione continua e automatizzata di dati si cerca di studiare che tipo di output produce l’algoritmo, e se ad esempio produce dei risultati distorti.

Questo procedimento è un esempio come l’uso di dati e algoritmi permette al giornalismo di studiare dei fenomeni simili nella società. In altre parole: la datificazione comporta un’interdipendenza tra la datificazione della società e la datificazione del giornalismo. Questa “svolta algoritmica” nel giornalismo, come la chiama Philip Napoli, che comporta un utilizzo crescente di dati, algoritmi e machine learning nel lavoro giornalistico al fine di analizzare la datificazione della società, si basa sugli stessi mezzi – dati e algoritmi – che contraddistinguono la società datificata. Ciò comporta una riflessività tra gli strumenti che caratterizzano la società datificata e la loro implementazione nel giornalismo per osservarli. È proprio questa interdipendenza che dimostra come, per capire la genealogia della datificazione nel giornalismo, occorra collocare la trasformazione nel contesto delle influenze tecnologiche, sociali e culturali.

Passiamo ora alla storia dell’uso dei dati nel giornalismo, che incomincia ben prima dell’avvento del Web. Come dimostra Chris Anderson nel suo libro The Apostles of Certainty (Gli apostoli della certezza), il giornalismo ha una lunga e spesso travagliata storia con i dati che trova il suo inizio nel 19° secolo: dopo una prima fase di entusiasmo riguardo all’uso di dati quantitativi verso la fine dell’800, causato soprattutto da movimenti sociali (ad esempio per i diritti dei lavoratori) che assecondavano fortemente l’uso di dati empirici per capire meglio fenomeni sociali, nella Progressive Era dei primi anni del 20° secolo, i giornalisti si riorientarono di nuovo su pratiche più individualiste seguendo persone famose e episodi rilevanti anziché immergendosi in analisi di strutture sociali. Questo era anche dovuto al fatto che i giornalisti vollero distanziarsi in modo netto dai sociologi.

Solo nel 1952, quando la CBS adoperò per la prima volta un Remington Rand UNIVAC mainframe computer per realizzare delle proiezioni sulle elezioni presidenziali, l’era del cosiddetto computer-assisted-reporting (o CAR) ebbe inizio. Ma solo in combinazione con un approccio più socio-scientifico propagato dal giornalista e ricercatore americano Phil Meyer negli anni 60 possiamo capire l’evoluzione di quello che decadi più tardi sarebbe diventato il vero e proprio data journalism. In altre parole, se vogliamo capire gli elementi che hanno portato a un giornalismo orientato all’uso di dati quantitativi dobbiamo tener conto del fatto che queste i cambi paradigmatici sono avvenuti ben prima dell’invenzione del Web nei primi anni 90. Certo, l’introduzione universale di computer nelle redazioni ha contribuito all’adizione di forme quantitative di giornalismo, ma la storia dell’impatto di dati nella produzione giornalistica incomincia ben prima.
Negli ultimi anni, nelle redazioni si può osservare sempre di più il fenomeno del giornalismo computazionale che comprende “la ricerca, il racconto e la diffusione di notizie con, da o sugli algoritmi”, come scrivono Nick Diakopoulos e Michael Koliska. Da qui si può capire la centralità dei dati e degli algoritmi nel giornalismo al giorno d’oggi: non si tratta più solamente di utilizzare delle macchine più potenti nel lavoro giornalistico (portato avanti esclusivamente da esseri umani), ma la loro applicazione è molto più centrale e pervasiva e concerne tutte le fasi del ciclo delle notizie. Il giornalismo computazionale rompe quindi con le tradizionali pratiche editoriali visto che gli strumenti che lo caratterizzano non supportano solamente i giornalisti, ma cambiano la natura, le routine e i ruoli giornalistici, configurando nuove concezioni di ciò che il lavoro giornalistico comporta.

In conclusione, l’ubiquità con cui le redazioni al giorno d’oggi usano dati e algoritmi, esercita un potere di trasformazione sul giornalismo, riducendo l’essere umano sempre di più a un elemento che assomiglia – proprio come previsto da Mumford e la sua info-macchina –  a un ingranaggio che subisce le logiche dei dati quantitativi attraverso, ad esempio, le metriche che impongono una produzione editoriale mirata ai gusti degli utenti – con tutti gli effetti disfunzionali per l’autonomia giornalistica. È dunque tutt’altro che chiaro come esseri umani e gli algoritmi possano convivere all’interno delle redazioni tenendo conto del fatto che l’uso massiccio di dati comporta diverse sfide, non solo quando si tratta di progettare il rapporto tra giudizio umano e automazione, ma proprio in relazione all’etica professionale riguardo alla trasparenza, la privacy, e la responsabilità nell’uso di dati e algoritmi. Dal momento che il giornalismo datificato è oramai una realtà, e considerato come sempre più decisioni editoriali vengono determinate da algoritmi che usano quantità di dati massicce, dobbiamo assicurarci che le sfide etiche, legali e sociali che accompagnano questo fenomeno vengano affrontate – ad esempio dalle istituzioni di autoregolamentazione giornalistica – in maniera seria affinché venga garantito un uso responsabile di dati nelle redazioni.

Bibliografia del capitolo

  • Anderson, C. W. (2018). Apostles of Certainty: Data Journalism and the Politics of Doubt. Oxford: Oxford University Press.
  • Bell, E. (2018). The Dependent Press: how Silicon Valley threatens independent journalism. In M. Moore & D. Tambini (eds.), Digital Dominance. The Power of Google, Amazon, Facebook, and Apple. Oxford: Oxford University Press.
  • Couldry, N., & Mejias, U. A. (2020). The costs of connection: How data are colonizing human life and appropriating it for capitalism. Stanford: Stanford University Press.
  • Diakopoulos, N. (2019). Automating the news. Cambridge: Harvard University Press.
  • Diakopoulos, N., & Koliska, M. (2017). Algorithmic transparency in the news media. Digital journalism, 5(7), 809-828.
  • Kleis Nielsen, R., & Ganter, S. A. (2022). The Power of Platforms. Oxford: University of Oxford Press.
  • Lewis, S. C., & Westlund, O. (2015). Big data and journalism: Epistemology, expertise, economics, and ethics. Digital journalism, 3(3), 447-466.
  • Loosen, W. (2018). Four forms of datafied journalism. Journalism’s response to the datafication of society. Communicative Figurations Working Paper Series, (18). Bremen: University of Bremen.
  • Mayer-Schönberger, V., & Cukier, K. (2013). Big data: A revolution that will transform how we live, work, and think. Boston: Houghton Mifflin Harcourt.
  • Mumford, L. (1967). Technics and Human Development: The Myth of the Machine, vol. I. New York: Harcourt, Brace Jovanovich.
  • Mumford, Lewis (1970). The Pentagon of Power: The Myth of the Machine, vol. II. New York: Harcourt, Brace Jovanovich.
  • Napoli, P. M. (2014). Automated media: An institutional theory perspective on algorithmic media production and consumption. Communication Theory, 24(3), 340-360.
  • Sadowski, J. (2019). When data is capital: Datafication, accumulation, and extraction. Big data & society, 6(1), 2053951718820549.

COLIN PORLEZZA

Colin Porlezza è Senior Assistant Professor di Giornalismo Digitale all’Istituto Media e Giornalismo, Università della Svizzera italiana (USI). Attualmente è anche Professore Onorario alla City, University of London (UK) e Research Fellow alla Columbia University (USA).
È direttore dell’Osservatorio Europeo di Giornalismo, network universitario europeo. Prima di raggiungere l’USI ha lavorato all’Università di Zurigo, all’Università di Neuchâtel e alla City, University of London. Le sue principali aree di ricerca sono il giornalismo digitale, la datificazione del giornalismo e l’impatto dell’intelligenza artificiale sul giornalismo. Ha pubblicato più di 50 pubblicazione tra libri, capitoli e articoli scientifici

I contenuti di questo documento vengono distribuiti con licenza Creative Commons By

con il patrocinio di:

STAMPA QUESTA PAGINA