ActiveNews se confruntă cu cenzura pe rețele sociale și pe internet. Intrați direct pe site pentru a ne citi și abonați-vă la buletinul nostru gratuit. Dacă doriți să ne sprijiniți, orice DONAȚIE este binevenită. Doamne, ajută!


Diferite unități militare din întreaga lume (în special din Marea Britanie în timpul pandemiei) s-au implicat în activități considerate ca fiind controversate, dacă nu ilegale, având în vedere scopul (cenzura) și participanții (din domeniul militar).

Tentația de a implica sistemul de apărare în arena politică a „războiului împotriva dezinformarii” pare a fi prea puternică. În acest moment, în SUA, Lockheed Martin, compania americană lider în domeniul aerospațial și al securității, aproape a finalizat un prototip care va analiza mass-media pentru a „detecta și contracara dezinformarea”, potrivit ReclaimtheNet

Prin mass-media, cei care aplică instrumentul – denumit programul Semantic Forensics (SemaFor), „Criminalistica semantică” – se referă la tot ce ține de știri, internet și chiar media de divertisment. Text, audio, imagini și videoclipuri, care fac parte din ceea ce se consideră a fi „atacuri automate prin dezinformare pe scară largă”, ar trebui să fie detectate și etichetate ca fiind false de către instrument.

Procesul dezvoltării sistemului este aproape finalizat, iar prototipul este folosit de Agenția din SUA pentru Proiecte de Cercetare Avansată în domeniul Apărării (DARPA).

Valoarea totală a programului, alocată de către Direcția de Informații a Laboratorul de Cercetare al Forțelor Aeriene (care reprezintă DARPA) companiei Lockheed Martin, se ridică la 37,2 milioane de dolari, a raportat Military and Aerospace Electronics.

Rapoartele notează că, deși metodele anterioare de detectare statistică au fost „de succes”, ele sunt acum considerate „insuficiente” pentru detectarea dezinformarii în mass-media. Din acest motiv se preferă analiza „incoerenței semantice”.

Scopul SemaFor este să analizeze mass-media cu ajutorul unor algoritmi tehnologici semantici și să emită verdictul dacă respectivul conținut este autentic sau fals.

Vor fi folosiți „algoritmii de atribuire”, deși e vorba mai degrabă de presupuneri prezentate drept tehnologie de încredere – și anume „algoritmi de caracterizare”, pentru a decide nu numai dacă mass-media este manipulată, dar și dacă scopul este unul rău intenționat.

Acum singurul lucru care mai rămâne de aflat este cum sunt scriși acești algoritmi.