Dirbtinio intelekto (DI) sprendimai vis aktyviau skinasi kelią į darbo aplinką: nuo automatizuotų atrankos sistemų, personalizuotų mokymų iki klientų aptarnavimo analizės ar net emocijų atpažinimo. Kartu su pažanga, kaip pažymi advokatų kontoros „TGS Baltic“ partneris, Technologijų industrijos grupės vadovas, advokatas Mindaugas Civilka, ateina ir atsakomybė suprasti, kiek, kur ir ar teisėtai darbo santykiuose naudojame DI.

Asociatyvi „Pixabay“ nuotr.
Europos atsakas: Dirbtinio intelekto aktas
2023 m. viduryje ES patvirtino Dirbtinio intelekto aktą, kuris nustato dvi pagrindines DI sistemų kategorijas: visiškai draudžiamas sistemas ir didelės rizikos sistemas.
Draudžiamos DI sistemos apima, pavyzdžiui, DI įrankių naudojimą emocijų nuspėjimui ar numanymui darbo ir švietimo kontekste, biometrinei identifikacijai be sutikimo, manipuliavimui pažeidžiamais asmenimis, pasąmoninių metodų naudojimui siekiant pakeisti žmogaus elgesį, žmonių klasifikavimui pagal jų elgesį arba tam tikrus bruožus. Beje, nors ES DI aktas įsigalioja etapais, ne visas iš karto, bet dalis jo, įsakmiai uždraudžiant minėtąsias DI sistemas visoje ES, jau galioja nuo 2025 m. vasario pradžios.
Kas laikytina didelės rizikos DI sistemomis?
Didelės rizikos DI sistemomis laikomos tos, kurios kelia rimtą pavojų žmonių sveikatai, saugumui ar teisėms. DI sistema yra laikoma didelės rizikos, jei atitinka du kriterijus. Pirmas: ji turi būti naudojama kaip saugos komponentas gaminyje arba pati DI sistema yra gaminys. Antras: gaminio, kuriame yra DI sistema, arba pačios DI sistemos atitikties vertinimą turi atlikti nepriklausoma trečioji šalis.
DI akto III priede pateikiamas pavyzdinis didelės rizikos DI sistemų sąrašas, tačiau tai nereiškia, kad visos šios sistemos visada bus laikomos didelės rizikos. DI sistemos, kurios nesukelia didelės žalos žmonių saugai, sveikatai ar teisėms arba neturi didelės įtakos sprendimų priėmimui, nebus automatiškai priskiriamos didelės rizikos kategorijai (išskyrus profiliavimą).
Europos Komisija ne vėliau kaip 2026 m. vasario 2 d. paskelbs gaires, kuriose bus nurodytas išsamus didelės rizikos DI sistemų naudojimo atvejų praktinių pavyzdžių sąrašas.
Šiuo metu yra trys pagrindinės sritys, kuriose DI laikomas didelės rizikos darbo kontekste:
- Atranka ir įdarbinimas: kai sprendimai priimami remiantis darbuotojų savybių ar elgsenos analize. DI geba analizuoti CV, taip pat pašnekovo kalbą ir elgesį pokalbio metu, tačiau klysta dažniau, nei mes norėtume.
- Vertinimas ir stebėsena: kai DI daro poveikį darbuotojo karjerai – skatinimams, atleidimams ar kt., ir atlieka vertinimus, pagrįstus asmeninėmis darbuotojo savybėmis. Tai nebe skaitmeninė pagalba, o potencialus grėsmės šaltinis. Juolab kad, pavyzdžiui, vadovaujančiai pozicijai, kur svarbus projektų valdymas, DI sistema, stebinti užduočių atlikimo greitį, gali rinkti ir vertinti neproporcingai daug perteklinės informacijos apie žmogų.
- Emocijų analizė mokymuose: ribotas taikymas darbuotojų mokymo kontekste. Šiuo atveju svarbi ne technologija, o ribos – ar galime naudoti kameros žvilgsnį tam, kad matuotume, kaip žmogus jaučiasi mokydamasis? Šioje vietoje riba tarp didelės rizikos ir draudžiamų DI sistemų gana plona, kadangi, kaip jau minėta aukščiau, emocijų numanymas darbo santykiuose yra DI aktu uždraustas.
Pavyzdys iš praktikos – prieš dešimt metų nuskambėjusi „Amazon“ istorija, kai bendrovė naudojo CV vertinimo įrankį, kuris, kaip vėliau buvo nustatyta, diskriminavo moteris, nes buvo apmokytas su istoriškai šališkais duomenimis. Įrankis buvo apmokytas atrinkti CV ir aprašymus pagal tam tikrus kriterijus, juos reitinguoti ir net siūlyti pozicijas bei atlyginimus, bet dažniau siūlė aukštesnes pozicijas ir geresnius atlyginimus vidutinio amžiaus vyrams, nes atspindėjo istorinius duomenis, kuriuose vyravo tokia tendencija. Kilo skandalas dėl lygių teisių pažeidimo, diskriminacijos, „Amazon“ nustojo naudoti sistemą.
Išvada – ne DI yra problema, o žmonių nepasirengimas su juo dirbti. Pažanga be sąmoningumo – tai ne inovacija, o pavojus.
Taigi, nors DI įrankių panaudojimas darbe atveria iki šiol nematytas galimybes mokinti, treniruoti darbuotojus, testuoti jų gebėjimus ir geriau, tiksliau parinkti užduotis pagal atskiro darbuotojo individualius gebėjimus jį geriau pažįstant, ir ieškoti optimaliausių bei efektyviausių darbo metodų, tuo pačiu DI atveria naujų grėsmių labirintus. Naudojant DI įrankius, kurie gali lemti darbuotojų ir žmogaus likimus, kalbame ne apie paprastą technologinį komfortą, o apie griežtą ribą, saugančią žmogaus autonomiją.
Neatsitiktinai pagal DI aktą didelės rizikos DI sistemos darbo kontekste gali būti naudojamos tik išpildant labai griežtas sąlygas, kadangi būtent darbo santykiuose neprofesionalus ir neatsakingas DI įrankių panaudojimas gali sukelti reikšmingą žalą bei suformuoti ilgalaikes traumas.
Ką turi žinoti darbdavys: pareigos
Naudodamas didelės rizikos DI sistemas, darbdavys privalo:
- Imtis saugumo priemonių užtikrinti, kad darbuotojai sistemas naudos laikydamiesi pateiktų instrukcijų;
- Pavesti DI įrankių priežiūrą asmenims, kurie turi reikiamą kompetenciją, kvalifikaciją ir įgaliojimus;
- Užtikrinti, kad įvesties duomenys būtų aktualūs ir reprezentatyvūs, atsižvelgiant į numatytąją DI sistemos paskirtį;
- Stebėti didelės rizikos DI sistemos veikimą, atsižvelgiant į jos naudojimo instrukciją ir, kai aktualu, informuoti tiekėjus, platintojus, priežiūros instituciją;
- Saugoti didelės rizikos DI sistemos automatiškai generuojamus žurnalus / sisteminius įrašus (logs);
- Prieš pradedant naudoti didelės rizikos DI sistemą darbo vietoje, apie tai informuoti darbuotojų atstovus ir darbuotojus;
- Informuoti darbuotojus ar kandidatus apie DI naudojimą – aiškiai, ne techniniais terminais, o detaliai ir suprantamai;
- Įvertinti, kaip veikia DI, kokie jo mokymo duomenys – ar sistema sprendžia objektyviai, ar tik pakartoja praeities šališkumus;
- Įvertinti galimą diskriminacinį ar kitokį šalutinį poveikį – nes net mažas algoritminis nukrypimas gali reikšti didelę žalą konkrečiam žmogui;
- Vykdyti rizikos vertinimą – iš anksto, o ne po to, kai sprendimas jau padarytas;
- Apmokyti atsakingus asmenis dirbti su DI – tam, kad jie suprastų, ką sistema iš tikrųjų daro, ir galėtų pasakyti „ne“, jei reikia;
- Sudaryti sąlygas ginčyti sprendimą ir sulaukti žmogaus balso – tai yra, vertinimo – nes tai yra ne privilegija, o pagrindinė teisė;
- Konsultuotis su darbuotojų atstovais, jei tai numatyta įmonėje – nes skaidrumas gimsta iš dialogo, ne iš vienpusio pranešimo;
- Atlikti poveikio duomenų apsaugai vertinimą;
- Bendradarbiauti su priežiūros institucijomis.
DI neturi tapti sprendimų priėmėju – jis gali padėti, susisteminti, bet ne pakeisti žmogų. Ir kol kas, nepaisant visų pažangių funkcijų, jis to daryti neturėtų.
Kas galima, o kas – ne?
Viešai prieinamos ar nemokamos DI sistemos, tokios kaip ChatGPT, neatitinka DI akto reikalavimų ir negali būti naudojamos sprendimų priėmimui darbo srityje. Norint naudoti DI, reikia įsigyti patikimą specializuotą produktą, kuris atitinka reguliacinius standartus.
Ir net ir šiuo atveju, naudojant teisėtai įdiegtą sistemą, darbuotojas gali reikalauti žmogaus vertinimo. Tokią darbuotojo teisę įtvirtina ne tik Bendrasis duomenų apsaugos reglamentas (BDAR), bet ir į žmogų orientuotas DI reglamentavimas, žmogaus atliekamos priežiūros būtinybė pagal DI aktą.
Pavyzdys iš praktikos – 2021 m. Amsterdamo apylinkės teismas nusprendė, kad „Uber“ turi suteikti dviem vairuotojams prieigą prie asmens duomenų, po to, kai jie buvo atleisti automatizuotu sprendimu, vadinamu „robo-atleidimu“, nesuteikiant jiems jokios galimybės apsiginti. Vairuotojai siekė gauti informaciją apie sprendimo logiką ir naudojamą profiliavimą.
2023 m. Amsterdamo apeliacinis teismas išplėtė šį klausimą, patvirtindamas, kad pagal BDAR 15 straipsnio 1 dalies h punktą asmenys turi teisę gauti informaciją apie automatizuotą sprendimų priėmimą, įskaitant profiliavimą. Teismas nustatė, kad vairuotojai patyrė didelę žalą – neteko pajamų ir leidimų, – ir atmetė „Uber“ teiginį apie tariamą žmogiškąją priežiūrą, pažymėdamas, kad vairuotojams nebuvo suteikta galimybė būti išklausytiems, o „Uber“ iki galo nepaaiškino atleidimo pagrindų.
„Uber“ trims iš keturių vairuotojų buvo įpareigota pateikti duomenis. Be to, teismas paskyrė 584 000 Eur dydžio baudą. Teismas pabrėžė, kad „Uber“ nesugebėjimas pateikti prasmingos informacijos apie taikytą profiliavimą ir automatizuotų sprendimų logiką yra rimtas vairuotojų teisių pažeidimas.
Darbo pokalbių ar vertinimų medžiagos analizė galima tik darbuotojui sutikus ir jį aiškiai supažindinus su visa informacija apie tai, kaip DI vertins, kokie kriterijai bus taikomi. Kitaip tariant – joks DI sprendimas negali būti netikėtumas.
DI kaip „Didysis brolis“?
Stebėjimas naudojant DI daugeliui asocijuojasi su šnipinėjimu, sekimu, ir taip – DI technologijos sustiprino rizikas, kurios egzistavo jau anksčiau – el. pašto stebėsena, prieigos prie interneto kontrolė ir kt. Tai yra, darbdaviai tai galėjo daryti, bet neperžengdami ribų – saugodami sistemas, turtą, konfidencialumą, rūpindamiesi užkirsti kelią virusams, neteisėtai prieigai.
Svarbiausia, kad stebėjimo tikslas būtų procesas ar paslauga, o ne pats žmogus. Pavyzdžiui, balso tono analizė klientų aptarnavime galima tik vertinant paslaugos kokybę, o ne darbuotojo emocinę būseną.
Siekiant išvengti „Didžiojo brolio“ įspūdžio, būtinas skaidrumas, proporcingumas ir tikslų ribojimas.
Reikalavimas darbuotojus informuoti apie DI sistemos naudojimą reiškia ne tik reikalavimą formaliai paskelbti apie DI panaudojimą, bet ir paaiškinti, kaip veikia sistema, ką ji vertina ir kodėl. Ir, svarbiausia – kaip tai paveiks darbuotoją. Be to, prieš pasitelkiant DI įrankius, kuriais būtų ribojamas darbuotojų privatumas, būtina atlikti išsamų poveikio privatumui bei duomenų apsaugai vertinimą, susijusių rizikų vertinimą.
Tik atlikus šiuos veiksmus galime kalbėti apie pasitikėjimu, skaidrumu ir proporcingumu grįstą DI įrankių diegimą, o ne apie technologinį dominavimą prieš žmogaus teises.
DI santykiai su darbuotojais – ateities klausimas
DI aktas įsigalios etapais, iki 2027 metų vidurio. Lietuvoje kol kas neturime bylų ar bausmių, tačiau praktiniai iššūkiai jau atėjo. Yra ir tam tikro neaiškumo, kadangi DI aktas nedraudžia valstybėms narėms nustatyti netgi dar aukštesnius darbuotojų teisių apsaugos reikalavimus, nei nustatyti pačiame ES DI Akte, tad ateityje viskas gali pasikeisti. Nors technologija siūlo esą „objektyvius“ rezultatus, tik žmogus gali įvertinti kontekstą, pritaikyti proporcingumą ir užtikrinti teisingumą – vertybes, kurių DI dar nesupranta.
O kol jos jam svetimos – žmogus turi likti esminis sprendimo priėmėjas.