16.12.2024 Скопље
Вештачка интелигенција може много да помогне у прикупљању и обради података, али ако се поставља питање да ли робот може да замени судију – одговор правника у Копаоничкој школи природног права је негативан.
Робот не може да осети правду и да пресуди, рекла је председница Школе проф. др Јелена С. Перовић Вујачић. Истакла је да се ове године велики број стручних радова бави различитим аспектима вештачке интелигенције, посебно у оквиру катедре „Право на интелектуалну творевину”. Више од пет стотина правника ове године учествује у раду Копаоничке школе.
Кривичари на катедри „Право на слободу” закључили су да одлуке у кривичним поступцима увек морају доносити људи, док програми вештачке интелигенције, који могу да помогну, не треба да имају кључну улогу.
– Савремени свет тежи да што више уштеди на људском раду. Данас је сасвим изводљиво да авион полети, лети и слети без пилота, само уз помоћ технике, али већина људи одговорила је да не би смела да се отисне на такав лет којим не управља човек. Нисам против технике и технологије, али човек ипак више верује човеку, ма колико он био несавршено биће – рекао је др Милан Шкулић, професор Правног факултета у Београду.
Доценткиња овог факултета др Ивана Миљуш рекла је да се „алгоритми за оцену ризика”, са елементима вештачке интелигенције (АИ), користе у америчком правном систему у доношењу одлука о притвору или пуштању на слободу и одлука о прихватању или одбијању јемства, као и у доношењу одлуке о казни и о условном отпусту. У Европи, међутим, употреба ових алгоритама указала је на бројне опасности.
– Уочене су опасности од дехуманизације у поступку одлучивања и ризици по остваривање основних људских права и слобода. Холандију је потресла „афера” у вези са коришћењем алгоритма који је прогнозирао ризик од превара у вези са накнадама за бригу о деци. Током 2005. и 2019. године, холандска Пореска управа погрешно је оптужила 26.000 родитеља, од којих су многи имали двојно држављанство, за превару у вези са погодностима. Алгоритам је званично употребљаван као „помоћник” за доношење одлука државних службеника. Међутим, они су се у пракси у великој мери некритички односили према резултатима рада алгоритма, који је функционисао као „црна кутија”, тако да су одлуке о укидању бенефита доношене аутоматизовано и неправично – рекла је др Ивана Миљуш.
Хиљаде породица су тада доведене до сиромаштва, више од хиљаду деце одведено на хранитељско старање, а забележени су и случајеви самоубистава. Због овог скандала холандска влада је поднела оставку 2021. године, навела је др Миљуш.
Поједини алгоритми у Амстердаму, како је рекла, користе се као инстументи превенције делинквенције малолетника и млађих пунолетних лица. То су такозвани предиктивни алати које полиција користи у откривању оних који су у ризику да изврше тешка кривична дела.
Међутим, некада се поступа по резултатима алгоритама као да су готове чињенице, што води дискриминацији и потенцијалној стигматизацији младих.
– Потреба стимулисања развоја вештачке интелигенције која „улива поверење” због своје поузданости и сигурности и остваривања различитих друштвених користи и уједно препознавање ризика употребе вештачке интелигенције по остваривање основних људских права и слобода, резултовало је усвајањем Акта о вештачкој интелигенцији ЕУ од стране Европског парламента, у марту ове године, и његовим одобравањем од стране Савета ЕУ у мају – рекла је др Миљуш.
Забрана система вештачке интелигенције који су означени „неприхватљиво ризичнима” примењиваће се од 2. фебруара 2025. године. Овај нормативни акт Европске уније идентификује и забрањује поједине системе вештачке интелигенције за процену ризика да ће одређено лице учинити казнено дело, искључиво на темељу израде профила физичког лица и процене његових особина и обележја личности.
– Елементи АИ користе се у оквирима техника за откривање и расветљавање казнених дела, пре свега саобраћајних прекршаја, кривичних дела која се врше путем рачунара, рачунарских система и мрежа, затим у циљу проналажења трагова и доказа, такође и у виду софтвера за анализу и оцену веродостојности доказа, али и ради обраде одлука и њиховог претварања у „машински читљиве” пресуде, такође и у циљу проналажења ранијих најсличнијих случајева из судске праксе – рекла је др Ивана Миљуш.
Полиција користи алгоритме и за предвиђање могућег учиниоца и потенцијалне жртве. У појединим државама елементи АИ уграђују се у алгоритме за оцену опасности од бекства, недоласка на суђење и поновног вршења кривичних дела.
Припремила А.Ђ.
