di Jeffrey Tucker
I casi di censura stanno aumentando fino al punto d'essere considerati una cosa normale. Nonostante le controversie legali in corso e una maggiore attenzione pubblica, i social media sono stati più feroci che mai negli ultimi mesi.
I podcaster sanno per certo cosa verrà immediatamente eliminato e discutono tra loro sui contenuti nelle zone grigie. Alcuni come il Brownstone Institute hanno rinunciato a YouTube in favore di Rumble, sacrificando un vasto pubblico se non altro per salvare i propri contenuti.
Non si tratta sempre di essere censurati o meno. Gli algoritmi odierni includono una serie di strumenti che influenzano la ricercabilità e la reperibilità.
Ad esempio, l'intervista di Joe Rogan a Donald Trump ha totalizzato ben 34 milioni di visualizzazioni prima che YouTube e Google modificassero i loro motori di ricerca per renderla difficile da trovare, mentre soprassedevano persino su un malfunzionamento tecnico che ne impediva la visione a molte persone.
Di fronte a ciò Rogan si è trasferito su X.
Districarsi in questo groviglio di censura e quasi-censura è diventato parte del modello di business dei canali d'informazione alternativi ...
E questi sono solo i casi da prima pagina, sotto di essi si stanno verificando eventi tecnici che influenzano la capacità di qualsiasi storico anche solo di guardare indietro e raccontare cosa sta succedendo.
Il servizio Archive.org, che esiste dal 1994, ha smesso di scattare immagini di contenuti su tutte le piattaforme. Per la prima volta in 30 anni abbiamo percorso una lunga striscia di tempo da quando questo servizio non ha più raccontato la vita di Internet.
Al momento in cui scrivo non abbiamo modo di verificare i contenuti pubblicati da tre settimane a questa parte e che hanno portato agli ultimi giorni delle elezioni più controverse della nostra vita. Non si tratta di partigianeria o discriminazione ideologica, nessun sito web viene archiviato in modi che siano accessibili agli utenti. Infatti l'intera memoria del nostro principale sistema informativo è solo un grande buco nero in questo momento.
I problemi su Archive.org sono iniziati l'8 ottobre 2024, quando il servizio è stato improvvisamente colpito da un massiccio attacco Denial of Service (DDOS) che non solo l'ha messo KO, ma ha anche introdotto un livello di errore che lo ha quasi eliminato completamente. Archive.org è tornato online, sì, ma solo in modalità “sola lettura” e ancora oggi è così. Si possono leggere solo i contenuti pubblicati prima dell'attacco, il servizio deve ancora riprendere l'attività di mirroring di qualsiasi sito su Internet.
In altre parole l'unica fonte sull'intero World Wide Web che rispecchia i contenuti in tempo reale è stata disabilitata. Per la prima volta dall'invenzione del browser web stesso, i ricercatori sono stati derubati della capacità di confrontare i contenuti passati con quelli futuri, strumento cruciale per chi esamina le azioni statali e aziendali.
È stato utilizzando questo servizio, ad esempio, che i ricercatori del Brownstone Institute hanno potuto scoprire esattamente cosa il CDC aveva detto su plexiglas, sistemi di filtraggio, schede elettorali per corrispondenza e moratorie sugli affitti. Tali contenuti sono stati poi cancellati da Internet, quindi accedere alle copie di archivio era l'unico modo per sapere e verificare cosa fosse vero.
Lo stesso è accaduto con l'Organizzazione Mondiale della Sanità e il suo disprezzo per l'immunità naturale, definizione di quest'ultima cambiata dall'oggi al domani.
Siamo stati in grado di documentare le definizioni mutevoli solo grazie a questo strumento che ora è disattivato.
Ciò significa quanto segue: qualsiasi sito web può pubblicare qualsiasi cosa oggi e rimuoverla domani e non lasciare traccia di ciò che ha pubblicato, a meno che un utente da qualche parte non abbia fatto uno screenshot. Anche in quel caso non c'è modo di verificarne l'autenticità. L'approccio standard per sapere chi ha detto cosa e quando è ormai scomparso.
Sappiamo cosa state pensando: sicuramente questo attacco DDOS non è stato una coincidenza. Archive.org sospetta qualcosa del genere? Ecco cosa hanno dire:
La scorsa settimana, insieme a un attacco DDOS e all'esposizione degli indirizzi email degli utenti e delle password crittografate, il javascript del sito web di Internet Archive è stato deturpato, il che ci ha portato a chiuderlo per accedere e migliorare la nostra sicurezza. I dati archiviati di Internet Archive sono al sicuro e stiamo lavorando per riprendere i servizi. Questa nuova realtà richiede una maggiore attenzione alla sicurezza informatica e stiamo rispondendo. Ci scusiamo per la mancata disponibilità dei nostri servizi.Stato profondo?
Come per tutte queste cose, non c'è modo di saperlo, ma lo sforzo di spazzare via la capacità di Internet di avere una cronologia verificata si adatta perfettamente al modello di distribuzione delle informazioni degli stakeholder che è stato considerato prioritario a livello globale.
La Declaration of the Future of the Internet lo dice chiaro e tondo: Internet dovrebbe essere “governato attraverso l’approccio multi-stakeholder, in cui i governi e le autorità competenti collaborano con il mondo accademico, la società civile, il settore privato, la comunità tecnica e altri”. Tutti questi stakeholder traggono vantaggio dalla capacità di agire online senza lasciare traccia.
Fortunatamente un membro di Archive.org ha scritto che “sebbene la Wayback Machine fosse in modalità di sola lettura, la scansione e l'archiviazione del Web sono continuate. Tali materiali saranno disponibili tramite la Wayback Machine man mano che i servizi saranno ripristinati”.
Quando? Non lo sappiamo. Prima delle elezioni? Tra cinque anni? Potrebbero esserci delle ragioni tecniche, ma se scansione/archiviazione sono andati avanti dietro le quinte, come suggerisce il tweet, gli screen risultanti dovrebbero essere disponibili in modalità di sola lettura ora... peccato che non lo siano.
Fortunatamente un membro di Archive.org ha scritto che “sebbene la Wayback Machine fosse in modalità di sola lettura, la scansione e l'archiviazione del Web sono continuate. Tali materiali saranno disponibili tramite la Wayback Machine man mano che i servizi saranno ripristinati”.
Quando? Non lo sappiamo. Prima delle elezioni? Tra cinque anni? Potrebbero esserci delle ragioni tecniche, ma se scansione/archiviazione sono andati avanti dietro le quinte, come suggerisce il tweet, gli screen risultanti dovrebbero essere disponibili in modalità di sola lettura ora... peccato che non lo siano.
Per molti anni Google ha offerto una versione cache del link che si stava cercando appena sotto la versione live. Hanno un sacco di spazio sui loro server, ma no: quel servizio è completamente scomparso.
Infatti il servizio cache di Google è ufficialmente terminato solo una o due settimane prima del crollo di Archive.org, alla fine di settembre 2024.
Così i due strumenti più usati per la ricerca di pagine memorizzate nella cache di Internet sono scomparsi nel giro di poche settimane l'uno dall'altro e a poche settimane dalle elezioni del 5 novembre.
Altre tendenze inquietanti stanno trasformando sempre più i risultati delle ricerche su Internet in elenchi di narrazioni approvate dall'establishment e controllate dall'intelligenza artificiale. In passato lo standard web prevedeva che le classifiche dei risultati di ricerca fossero governate dal comportamento degli utenti, dai link, dalle citazioni e così via. Si trattava di metriche più o meno organiche, basate su un'aggregazione di dati che indicavano quanto fosse utile un risultato di ricerca per gli utenti di Internet. In parole povere, più persone trovavano utile un risultato di ricerca, più alto sarebbe stato il suo posizionamento. Google ora utilizza metriche molto diverse per classificare i risultati di ricerca, tra cui ciò che considera “fonti attendibili” e altre determinazioni opache e soggettive.
Inoltre il servizio più utilizzato che un tempo classificava i siti web in base al traffico ora non c'è più. Quel servizio si chiamava Alexa e l'azienda che lo aveva creato era indipendente. Poi nel 1999 fu acquistato da Amazon. Ciò sembrò incoraggiante e l'acquisizione sembrò premiare lo strumento che tutti usavano come una sorta di metrica di stato sul web. Era comune all'epoca prendere nota di un articolo da qualche parte sul web e poi cercarlo su Alexa per vederne la portata.
Così i due strumenti più usati per la ricerca di pagine memorizzate nella cache di Internet sono scomparsi nel giro di poche settimane l'uno dall'altro e a poche settimane dalle elezioni del 5 novembre.
Altre tendenze inquietanti stanno trasformando sempre più i risultati delle ricerche su Internet in elenchi di narrazioni approvate dall'establishment e controllate dall'intelligenza artificiale. In passato lo standard web prevedeva che le classifiche dei risultati di ricerca fossero governate dal comportamento degli utenti, dai link, dalle citazioni e così via. Si trattava di metriche più o meno organiche, basate su un'aggregazione di dati che indicavano quanto fosse utile un risultato di ricerca per gli utenti di Internet. In parole povere, più persone trovavano utile un risultato di ricerca, più alto sarebbe stato il suo posizionamento. Google ora utilizza metriche molto diverse per classificare i risultati di ricerca, tra cui ciò che considera “fonti attendibili” e altre determinazioni opache e soggettive.
Inoltre il servizio più utilizzato che un tempo classificava i siti web in base al traffico ora non c'è più. Quel servizio si chiamava Alexa e l'azienda che lo aveva creato era indipendente. Poi nel 1999 fu acquistato da Amazon. Ciò sembrò incoraggiante e l'acquisizione sembrò premiare lo strumento che tutti usavano come una sorta di metrica di stato sul web. Era comune all'epoca prendere nota di un articolo da qualche parte sul web e poi cercarlo su Alexa per vederne la portata.
Se era importante, uno ci avrebbe fatto caso, ma se non lo era a nessuno sarebbe importato.
Ecco come ha funzionato un'intera generazione di tecnici web. Il sistema funzionava nel miglior modo possibile.
Poi, nel 2014, anni dopo aver acquisito il servizio di ranking Alexa, Amazon ha fatto una cosa strana: ha inaugurato il suo assistente domestico (e dispositivo di sorveglianza) con lo stesso nome. All'improvviso tutti lo avevano in casa e scoprivano qualsiasi cosa dicendo “Hey Alexa”.
C'era qualcosa di strano nel fatto che Amazon desse al suo nuovo prodotto il nome di un'azienda che aveva acquisito anni prima; senza dubbio c'era un po' di confusione causata dalla sovrapposizione dei nomi.
Ecco cosa è successo dopo. Nel 2022 Amazon ha rimosso lo strumento di classificazione web. Non lo ha venduto, non ha aumentato i prezzi, non ci ha fatto niente. All'improvviso lo ha reso completamente inutilizzabile.
Nessuno riusciva a capire perché. Era lo standard del settore e all'improvviso era sparito. Non venduto, solo spazzato via. Nessuno riusciva più a capire le classifiche dei siti web basate sul traffico senza pagare prezzi molto alti per prodotti proprietari difficili da usare.
Tutti questi punti che potrebbero sembrare non correlati se considerati individualmente, sono in realtà parte di una lunga traiettoria che ha spostato il nostro panorama informativo in un territorio irriconoscibile. Gli eventi del 2020-2023, con massicci sforzi di censura e propaganda globali, hanno notevolmente accelerato suddette tendenze.
Al momento in cui scrivo, non sono state archiviate ben tre settimane di contenuti web. Ciò che ci stiamo perdendo e ciò che è cambiato è un mistero. E non abbiamo idea di quando il servizio tornerà. È del tutto possibile che non tornerà, che l'unica vera cronologia a cui possiamo fare ricorso sarà quella precedente all'8 ottobre 2024, la data in cui tutto è cambiato.
Internet è stato fondato per essere libero e democratico.
A questo punto saranno necessari sforzi erculei per ripristinare quella visione, perché qualcos'altro la sta rapidamente sostituendo.
Traduzione di Francesco Simoncelli
Ricordo a tutti i lettori che su Amazon potete acquistare il mio nuovo libro, “Il Grande Default”: https://www.amazon.it/dp/B0DJK1J4K9
Il manoscritto fornisce un grimaldello al lettore, una chiave di lettura semplificata, del mondo finanziario e non che sembra essere andato "fuori controllo" negli ultimi quattro anni in particolare. Questa è una storia di cartelli, a livello sovrastatale e sovranazionale, la cui pianificazione centrale ha raggiunto un punto in cui deve essere riformata radicalmente e questa riforma radicale non può avvenire senza una dose di dolore economico che potrebbe mettere a repentaglio la loro autorità. Da qui la risposta al Grande Default attraverso il Grande Reset. Questa è la storia di un coyote, che quando non riesce a sfamarsi all'esterno ricorre all'autofagocitazione. Lo stesso è accaduto ai membri del G7, dove i sei membri restanti hanno iniziato a fagocitare il settimo: gli Stati Uniti.
Francesco Simoncelli
Traduzione di Francesco Simoncelli
Fonte: www.francescosimoncelli.com
Il manoscritto fornisce un grimaldello al lettore, una chiave di lettura semplificata, del mondo finanziario e non che sembra essere andato "fuori controllo" negli ultimi quattro anni in particolare. Questa è una storia di cartelli, a livello sovrastatale e sovranazionale, la cui pianificazione centrale ha raggiunto un punto in cui deve essere riformata radicalmente e questa riforma radicale non può avvenire senza una dose di dolore economico che potrebbe mettere a repentaglio la loro autorità. Da qui la risposta al Grande Default attraverso il Grande Reset. Questa è la storia di un coyote, che quando non riesce a sfamarsi all'esterno ricorre all'autofagocitazione. Lo stesso è accaduto ai membri del G7, dove i sei membri restanti hanno iniziato a fagocitare il settimo: gli Stati Uniti.
Francesco Simoncelli
Nessun commento:
Posta un commento
Nota. Solo i membri di questo blog possono postare un commento.