Închide anunțul

Domeniul tehnologiei este amenințat de o serie de factori. Utilizatorii se tem, de exemplu, de malware sau de pierderea confidențialității. Însă, potrivit unor personalități influente din industria tehnologiei, nu ar trebui să ne îngrijorăm atât de mult în privința factorului uman în sine, ci mai degrabă a conexiunii sale cu inteligența artificială. La Forumul Economic Mondial de anul acesta de la Davos, directori ai unor mari companii de tehnologie au cerut reglementarea legislativă a industriei. Care sunt motivele lor pentru a face acest lucru?

„Inteligenta artificiala este unul dintre cele mai profunde lucruri la care lucram ca umanitate. Are mai multă adâncime decât focul sau electricitatea.” a declarat CEO-ul Alphabet Inc. miercurea trecută la Forumul Economic Mondial. Sundar Pichai, adăugând că reglementarea inteligenței artificiale necesită un cadru global de procesare. Directorul Microsoft, Satya Nadella, și directorul IBM, Ginni Rometty, solicită, de asemenea, standardizarea regulilor privind utilizarea inteligenței artificiale. Potrivit lui Nadella, astăzi, acum mai bine de treizeci de ani, este necesar ca Statele Unite, China și Uniunea Europeană să stabilească reguli care să determine importanța inteligenței artificiale pentru societatea noastră și pentru lume.

Încercările companiilor individuale de a-și stabili propriile reguli de etică pentru inteligența artificială au întâmpinat în trecut proteste nu numai din partea angajaților acestor companii. De exemplu, Google a fost nevoit să se retragă în 2018 din programul guvernamental secret Project Maven, care a folosit tehnologia pentru a analiza imaginile de la dronele militare, după o reacție masivă. Stefan Heumann de la think tank-ul Stiftung Neue Verantwortung din Berlin, în legătură cu controversele etice din jurul inteligenței artificiale, spune că organizațiile politice ar trebui să stabilească regulile, nu companiile însele.

Difuzorul inteligent Google Home folosește inteligența artificială

Valul actual de proteste împotriva inteligenței artificiale are un motiv clar pentru acest moment. În doar câteva săptămâni, Uniunea Europeană trebuie să-și schimbe planurile pentru legislația relevantă. Aceasta ar putea include, de exemplu, reglementări privind dezvoltarea inteligenței artificiale în așa-numitele sectoare cu risc ridicat, cum ar fi asistența medicală sau transportul. Conform noilor reguli, de exemplu, companiile ar trebui să documenteze, în cadrul transparenței, modul în care își construiesc sistemele AI.

În legătură cu inteligența artificială, mai multe scandaluri au apărut deja în trecut - unul dintre ele este, de exemplu, afacerea Cambridge Analytica. În compania Amazon, angajații au ascultat utilizatorii prin intermediul asistentului digital Alexa, iar în vara anului trecut, a izbucnit din nou un scandal din cauza faptului că compania Google - sau platforma YouTube - a colectat date de la copii sub treisprezece ani. fără acordul părintesc.

În timp ce unele companii tac pe această temă, conform declarației vicepreședintelui său Nicola Mendelsohn, Facebook și-a stabilit recent propriile reguli, similare cu regulamentul european GDPR. Mendelsohn a spus într-o declarație că acesta a fost rezultatul impulsului Facebook pentru reglementarea globală. Keith Enright, care se ocupă de confidențialitate la Google, a declarat la o conferință recentă de la Bruxelles că compania caută în prezent modalități de a minimiza cantitatea de date despre utilizatori care trebuie colectată. „Dar afirmația populară pe scară largă este că companiile ca a noastră încearcă să colecteze cât mai multe date posibil”, el a mai spus, adăugând că deținerea de date care nu aduc nicio valoare utilizatorilor este riscantă.

Autoritățile de reglementare nu par să subestimeze în niciun caz protecția datelor utilizatorilor. Statele Unite lucrează în prezent la o legislație federală similară cu GDPR. Pe baza acestora, companiile ar trebui să obțină consimțământul clienților lor pentru a-și furniza datele terților.

Siri FB

sursa: Bloomberg

.