Cât de mult te îngrijorează că nu mai știm ce e adevărat și ce nu?
A făcut-o. A făcut-o, nemernicul. Elon Musk lansează Grokipedia — o enciclopedie alternativă și surprinzător de convenabilă. OpenAI lansează un motor de căutare, unul cât mai personalizat. Rușii au fabrici întregi de fake news și conduc un război hibrid global. Și nu sunt singurii. Administrația Trump folosește AI pentru decizii, presa folosește AI pentru articole, Maurice folosește ChatGPT pentru statusuri, iar Kim Kardashian tocmai a contestat că am trimis oameni pe Lună. Ce mai e real și ce nu?

Într-o lume care colcăie de dezinformare, revizionism, propagandă, deepfakes și chatboți  care te mângâie pe creștet oricât de răpciugos ai fi, pare că ăsta e ultimul cui în sicriul adevărului obiectiv. Al cunoașterii. Al acelui „eu și cu tine”, care, indiferent dacă ne placem sau nu, împărțim totuși o realitate comună.

Astăzi cred că pășim într-o eră în care realitatea devine personală, customizabilă și, poate chiar mai îngrijorător, de vânzare. Totul, în 12 minute. Mai mult sau mai puțin.

Pentru că acesta e un episod publicat absolut accidental de Halloween, pare un prilej bun să vorbim despre lucruri înfricoșătoare, fiindcă dincolo de micile neajunsuri ale existenței cotidiene, între condiții materiale tot mai greu de navigat, guverne fragile și cupluri faimoase care nu ne plac, am senzația că suntem martorii unor evenimente ale căror ecouri au șansa să schimbe arhitectura întregii lumi împărțite.  Ce mai e real și ce nu? Și cum am ajuns să ne punem această întrebare?

Ăsta e un rant îngrijorat despre criza epistemologică în care am intrat de ceva vreme. O criză a cunoașterii. Ce știm? Ce e de știut? Cum știm ceea ce știm? Cum definim cunoașterea? Ce înseamnă „a ști”? Care sunt mecanismele prin care teoriile devin realitate acceptată? Cum justificăm propriile noastre credințe? Cum distingem între fapte și opinie? Și, poate chiar mai important, care sunt instituțiile, autoritățile sau algoritmii cărora le delegăm aceste întrebări și răspunsuri?

Asta este criza epistemologică. Și ustură, pentru că devine din ce în ce mai greu să ne adunăm în jurul unui adevăr obiectiv, împărtășit. Tu de unde îți iei adevărul?

Am pus întrebarea asta familiei mele, după ani buni de distanță și conversații ciudate. Vizitele de Crăciun deveniseră suprapolitizate. Convingerile mele nu mai aveau nicio legătură cu ale oamenilor în care obișnuiam să am cea mai mare încredere. Distanță care a început în 2016, la scurt timp după ce Donald Trump a fost ales. Eu îl vedeam ca pe un prost făcut grămadă; familia mea îl vedea magnetic, sincer. Eu vedeam un bou într-un magazin de bibelouri; ei vedeau un om puternic, chiar reformator. Și am ținut-o așa. Am ținut-o așa peste „criza” europeană a migrației, peste ascensiunea dreptei extreme, peste președinția Biden, peste COVID, peste conspirații, peste un climat politic național delapidar, cinic și clientelar. România rămânea un stat slab, vasal, iar evenimentele din Vest promiteau să aibă ecouri imediate în realitatea noastră curentă. Eu încercam să rămân lucid, să citesc, să verific, să înțeleg. Am început să citesc publicații. Să compar cum aceeași știre era distorsionată din titlu în titlu. Am urmărit jurnaliști, analiști, încercând să găsesc oameni cu integritate. Am urmărit ownership, am urmărit drumul banilor. Și pe Seth Meyers. Da, Seth Meyers. Am și eu pe cineva magnetic și reformator sub ochii mei.

Familia mea, în schimb, se informa altfel. Familia mea îi urmărea pe Tucker Carlson, Laura Ingraham, Ben Shapiro, Jesse Watters. Aparent, pusesem prea târziu întrebarea: „Tu de unde îți iei informațiile?” Așa am dat de o barieră pe care astăzi, din nefericire, o găsesc doar comună: neîncrederea totală în „mainstream media” și preferința pentru comentatori care îți dau realitatea gata digerată. Jesse Watters nu doar prezintă știrile. Le interpretează, le mestecă, injectează credințe personale. Iar opinia lui devine opinia ta.

Când realitatea îți vine mediată, explicată și gata mestecată, capacitatea ta de analiză se atrofiază. Ajungi parte dintr-un grup în care poate că n-ai ales să fii. Toți vrem confortul de a nu ni se contrazice realitatea. Toți vrem aprobare, validare. Iar acum e mai posibil ca oricând. Algoritmii vor să ne țină fericiți. Ne oferă informație relevantă pentru noi, opinii relevante pentru noi, mărturii care ne confirmă teorii preexistente. Realități personalizate, intime, perfect calibrate.

Mi-a luat mult să înțeleg că, dacă nu voiam să pierd contactul cu familia mea, trebuia să cedez algoritmilor. Am început să construiesc o punte digitală. Am identificat oameni și publicații în care ei aveau încredere, chiar dacă eu nu. Am început să caut acolo articole și informații care puteau aduce context sau nuanță. Am pus una lângă alta declarații de-ale lui Trump, JD Vance, Tucker Carlson. Am identificat fals, minciună, oportunism. Am început să trimit TikTok-uri din „bula mea” — nu ca propagandă, ci ca exercițiu de dialog „Ce crezi despre opinia asta? Ți se pare violentă? Utopică? Cum o contești?” Încet-încet, algoritmii noștri s-au schimbat.

Ei au ajuns să ia contact cu idei încă nevizitate. Eu am ajuns să înțeleg mai bine cum sunt ambalate ideile de extremă dreaptă, ca să fie mai greu de contestat. Cine se poate împotrivi tradiției, cine nu-și dorește un stat puternic, respectat pe plan european? Cine nu crede în meritocrație, eficiență? Cine nu vrea să fie mândru de identitatea sa națională? Dialogul a funcționat. Probabil nu suntem complet pe aceeași pagină, dar suntem în aceeași carte. Putem recunoaște mai bine propaganda, alarmismul și strigătele goale de luptă pentru ceea ce sunt. Suntem mai aproape unii de alții, dar nu știu dacă suntem mai aproape de adevăr.

Astăzi, informația nu costă nimic. Verificarea ei, însă, costă enorm. În timpul în care am scris aceste rânduri, vicepreședintele SUA ar fi putut să dea din nou repost pe Twitter la o știre falsă creată de Kremlin, urmând apoi să fie preluat de zeci de publicații mai mult sau mai puțin respectabile. Trăim într-o economie a atenției, iar adevărul poate fi creat din nimic.

Operațiunea e simplă: rețele precum Pravda Network, Storm-1516 sau Internet Research Agency, fabrici de dezinformare finanțate de Moscova, produc videoclipuri, marturii false, imagini, știri strigătoare la cer. Acestea sunt apoi spălate prin conturi automate sau clone de publicații occidentale. Știrea ajunge pe Twitter. Devine memă. E discutată într-un podcast. E repetată de o figură publică. Devine realitate.

Să nu ne păcălim că asta e vreo consecință neplăcută a internetului. Puterea are o tradiție lungă de negociat adevărul: scribi, cronicari, poeți de curte, rescriu istoria în moduri convenabile. Artă și cărți sfinte infiltrează conștiința colectivă și manufacturează consimțământul maselor. Internetul amplifică un reflex preexistent, dar scara la care o face e inimaginabilă. 

Conform DFR Labs, Rețeaua Pravda a publicat global 3.7mil de articole în 2024, targetând România, Moldova, regiuni din Africa, și foarte apăsat Franța, Germania și SUA. Dar ar fi naiv să credem că asta e doar o operațiune de forță brută, în care trântești milioane de tiktok-uri și speri că unul va spăla pe cap ceea ce ne închipuim că e vreun administrator de bloc mai puțin educat, cu acces la Telegram și grupuri dubitabile de Whatsapp. Nu. Asta pare să facă parte dintr-o campanie mai largă de LLM Grooming. Pe scurt, e atât de ușor să emiți știri false și atât de costisitor să le investighezi și contești public, încât câteva titluri se vor strecura în presa mică, tweet-uri, statusuri de Facebook de unde va fi preluată de canale mai mari, apoi de voci mai mari, referințe în urma cărora ajunge apoi să fie citată de vreun chat AI ca sursă. 

În Infinite Jest, al lui David Foster Wallace, undeva pe la pagina 638, personajul Steeply ne spune în detaliu cum și-a pierdut tatăl. Unui serial de televiziune. M*A*S*H*. Ceea ce începe ca un ritual simpatic de familie devine un contact intim, aproape religios, cu o realitate ficțională și cu personajele ei. Tatăl rămâne lipit de ecran, începând să privească reluări, să înregistreze și consemneze elemente cheie din serial, să construiască un ghid intra-referențial în jurnale bine păzite, să se retragă de la muncă, din viața publică, apoi din viața de familie, iar apoi, chiar înainte de un final previzibil pe care vă las pe voi să-l citiți, să ajungă convins că serialul nu e altceva decât un cod prin care puteri importante transmit influență și planuri apocaliptice celor puțini, pregătiți să înțeleagă. Contopirea dintre cele două planuri, dintre ce e în fața ecranului și ce e în spatele ecranului, devine completă. Divertismentul infectează realitatea. Și o distruge. 

Da, e vorba despre ce astăzi cunoaștem ca psihoză AI.

Astăzi, Newsguard publică un raport îngrijorător: după updateurile care permit chatboturilor să caute online în timp real, rata lor de non-response a scăzut la zero. În schimb, rata informațiilor false strecurate în răspunsuri a crescut la 35%. O spun aici pentru fiecare dintre noi: ChatGPT nu e un motor de căutare. Nu e un prieten, nu e un terapeut, nu e un doctor. Nu știe diferența dintre adevăr și fals și, chiar și atunci când are acces la internet în timp real pentru informații, le va extrage dintr-o mlaștină de dezinformare. 

Iar asta ne afectează pe tot, pentru că chatboții AI au parcurs un drum lung de la un Siri tâmp până la artist generativ, mentor, asistent de încredere pentru jurnaliști, profesori, guverne, armate. Cine răspunde pentru deciziile luate de un AI care nu e interesat de acuratețea mesajului atât cât e interesat să ne țină fericiți și să ne țină pe platformă?

Trăim de o bună vreme într-o economie a atenției, în care experiența noastră este mediată de ecrane. Fiecare dintre noi are o voce, o pereche de urechi și câteva metrice atașate. Câteva zeci de mii de followeri ne fac relevanți, indiferent de nivelul de expertiză. Dieticieni, instructori de fitness, medici, guru și vindecători, comentatori și analiști politici de carton nu mai au nevoie de experiență și, din nefericire, nici măcar de o ancoră în realitate. Popularitatea e suficientă. Iar opiniile lor devin curent.

Eu, unul, nu mai știu ce e real și ce nu. Nu știu dacă ovăzul e prea sărac sau suficient de nutritiv, nu știu dacă glutenul chiar e o problemă sau o modă, nu știu ce sunt histaminele dar știu că trebuie să mă feresc de ele, nu știu dacă Rusia are capacitatea de a invada și alte state sau dacă e doar o sperietoare de ciori folosită pentru înarmare, nu mai știu de unde să mă informez și devine din ce în ce mai dificil să nu-mi iau în continuare știrile din meme!

Iar acum că avem Grokipedia, de la același om care a investit mult în imagine sacrificând veridicitete, lucrurile nu par cu mult mai promițătoare. Tocmai am primit o enciclopedie alternativă care își propune în același timp să fie neutră dar și să fie complet ne-woke. Asta nu mai pare o poziție neutră. 

Azi, primim de la același om care a cumpărat Twitter și care l-a reconfigurat pentru profit, sacrificând toate gardurile care separau personalități, publicații, instituții de simpli cumpărători de bifă, o istorie rescrisă care îndulcește teorii sinistre și care ignoră realități istorice. Și totul fără responsabilitate umană. Totul purificat de un algoritm sfânt. Cât va mai dura până când năstrușniciile scrise acolo ajung repetate de un YouTuber simplu, apoi de ChatGPT, apoi într-un eseu de clasa a opta, apoi de elevul devenit profesor?

Pe măsură ce colaborăm din ce în ce mai mult cu aceste tehnologii, devine din ce în ce mai greu de separat expertul de cel care pur și simplu vorbește mai tare, și realul de slop. Nici Wikipedia, un efort comun, uman, colaborativ, non-profit, nu e ferită. Chiar și acolo se mai strecoară câte o notă dintr-un fake news emis de Pravda.

Iar acum, OpenAI lansează browserul Atlas, integrat cu ChatGPT, menit să-ți ofere rezultate relevante personalizate, pe baza conversațiilor trecute. Modul în care realitatea pe care o experimentăm devine din ce în ce mai acordată la individ mă îngrijorează cel mai mult. Nu vreau să caut „Grokipedia riscuri” pe Google și să obțin un alt rezultat decât voi. Nu vreau să deschid secțiunea de comentarii a unui TikTok despre violență de gen și să văd alte comentarii decât tine, doar pentru că sunt băiat. Nu vreau să negociez un conflict de cuplu și partenera mea să invoce opiniile confidentului ChatGPT.

Nu pentru că prefer confortul de a trăi o existență fără fricțiune, fără alte puncte de vedere, idei, preferințe, povești. Prefer ca acele puncte de vedere să fie personale și să nu fie hrănite de un echo chamber personal. Fricțiunea nu trebuie să excludă o realitate împărțită.

Nu vreau să rămân captiv într-o bulă în care totul mă mângâie și mi se confirmă, oricât de artificial, în care adevărul cade secundar, în care participarea mea e înlocuită cu un acord pasiv și în care puterea mea de om, de cetățean, de membru al unei comunități este înlocuită cu acces, consum și nu știu ce cumpărătură.

Podcasteri sunt promovați în funcții de conducere FBI, pentru capitalul lor social. Podcasteri beau lapte crud cu RFK Jr., capul Departamentului de Sănătate din SUA, care promovează idei de mult demonstrate false despre legătura dintre vaccinuri esențiale și autism. Departament care taie studii de care întreaga comunitate științifică are nevoie și de care fiecare dintre noi poate beneficia într-o zi. Știri senzaționale despre medicul găsit decedat în spital, speculații ieftine menite să capete clickuri, care nu vor fi niciodată rectificate, și nu cu același reach. Biserica promite construcția Catedralei Mântuirii Neamului din finanțare proprie, niciun ban public, strict din donațiile enoriașilor. Și plătește abia 10% din costurile din care am fi putut construi șase spitale.

Lucrurile astea nu sunt separate. Adevărul e pur și simplu secundar acum, iar atenția primează. Iar noi avem confortul de a da scroll mai departe de câte ori ne întâlnim cu o știre care nu ne convine. E o pasivitate la fel de personalizată, la fel de sterilă. Pot să ridic telefonul oricând și să iau contact cu orice realitate deranjează mai puțin.

Așa că vă întreb: cum putem da ceasul ăsta înapoi? Cum putem să ne asigurăm că știm ce știm, și că informațiile pe care le absorbim sunt valide? Cum putem să refuzăm această comodificare a realității de către marile companii? Cum putem să atacăm efectele sinistre care se văd drept consecință directă a acestei epoci post-adevăr în care trăim și cum putem să redevenim activi, să ne punem forțele împreună și să spunem „nu” lucrurilor care merită schimbate, fără să închidem ochii?