ActiveNews se confruntă cu cenzura pe rețele sociale și pe internet. Intrați direct pe site pentru a ne citi și abonați-vă la buletinul nostru gratuit. Dacă doriți să ne sprijiniți, orice donație este binevenită. Doamne, ajută!


Poliția spaniolă va putea utiliza în curând un instrument de recunoaștere facială automată, denumit ABIS (sistem automat de identificare biometrică), care utilizează inteligența artificială pentru a identifica suspecții dintr-o bază de date aflată în curs de dezvoltare, potrivit Lifesite.

ABIS utilizează un algoritm numit Cogent, dezvoltat de compania franceză de tehnologie militară Thales. Programul compară imaginile introduse de poliție, cum ar fi o imagine obținută de la o cameră de supraveghere, cu imaginile stocate într-o bază de date, care va conține peste cinci milioane de imagini ale suspecților și ale deținuților aflate deja la dosar. Cei arestați după lansarea sistemului vor fi adăugați la baza de date.

Baza de date nu va utiliza imagini din înregistrările din bazele de date civile, cum ar fi baza de date care conține fotografii utilizate pentru documentele naționale de identitate.

Ministerul de Interne a declarat că lucrează la acest sistem de trei ani. Ministerul a declarat că ABIS va fi folosit pentru a investiga infracțiuni grave și insistă că nu va fi folosit pentru supraveghere.

În Spania, poliția dispune de două modalități de identificare a suspecților atunci când nu există niciun suspect: analiza amprentelor și analiza ADN. Acum, ei vor avea o a treia opțiune, a relatat Morning Express. Fără recunoaștere facială automată, este imposibil să se înceapă căutarea unui suspect în imagini fără ceva care să restrângă căutarea.

Baza de date care va conține imagini faciale va fi aceeași care conține mostre de ADN și amprente. Datele sunt partajate cu alte state membre ale UE în cadrul Sistemului de Informații Schengen (SIS).

„Sistemul ABIS spaniol se poate conecta cu bazele de date europene, cum ar fi Eurodac, EU-Lisa sau VIS, deoarece sunt proiectate legăturile corespunzătoare. Nu este un sistem izolat, ci mai degrabă este interconectat cu țările Uniunii Europene", au explicat surse din cadrul Thales.

EL PAÍS a relatat că Agenția Spaniolă pentru Protecția Datelor (AEPD) a contactat ministerul de interne „pentru a aborda diverse proiecte ale ministerului care ar putea avea un impact asupra protecției datelor". Agenția pentru protecția datelor nu a avut cunoștință de ABIS până în luna iulie. Aceasta dorește să determine riscurile pe care sistemul le prezintă pentru drepturile și libertățile cetățenilor. De asemenea, vrea să știe cât timp va păstra poliția imaginile suspecților, cine ar trebui să aibă acces la date și așa mai departe.

Poate că problema cea mai mare este că algoritmii fac greșeli, iar în acest caz nu este vorba de ceva la fel de lipsit de impact ca o recomandare muzicală greșită. În SUA, Robert Williams a fost arestat și dus la închisoare din greșeală, deoarece un sistem de recunoaștere facială l-a confundat cu altcineva. Tehnologia de recunoaștere facială este foarte imprecisă în recunoașterea persoanelor de culoare.

Bruxelles-ul a clasificat tehnologia de recunoaștere facială ca fiind de „risc ridicat" și lucrează la o reglementare pentru a adopta abordări care să abordeze potențialul risc pe care îl comportă sistemele de inteligență artificială. Cu toate acestea, a dat undă verde utilizării recunoașterii faciale în "scopul prevenirii, arestării sau investigării infracțiunilor grave sau a terorismului". Tehnologia nu are voie să fie folosită pentru supraveghere.

Cogent a fost aprobată de NIST, o organizație independentă din SUA. Însă unii experți consideră că acest lucru nu este suficient.

„NIST nu spune că algoritmii sunt buni sau răi. Și, în plus, organizația propune mai multe evaluări cu obiective diferite, iar noi nu știm la care se referă", spune Carmela Troncoso, profesor la Școala Politehnică Federală din Lausanne, în Elveția.

Eticas Consulting, o companie specializată în auditul algoritmilor, împărtășește aceleași sentimente: „În conformitate cu reglementările europene, trebuie justificată proporționalitatea tehnologiilor cu risc ridicat și trebuie stabilit ce se așteaptă să se realizeze cu acestea. De asemenea, este necesar să se știe ce măsuri de precauție au fost luate pentru a evita prejudecățile algoritmice: este dovedit că aceste sisteme identifică mai bine decât restul persoanele albe, deci trebuie să se dovedească faptul că nu fac greșeli cu negrii."

Pentru că suntem cenzurați pe Facebook ne puteți găsi și pe Telegram și GoogleNews