ვებგვერდი მუშაობს სატესტო რეჟიმში
ევროკავშირის „ხელოვნური ინტელექტის შესახებ“ აქტი

ევროკავშირის „ხელოვნური ინტელექტის შესახებ“ აქტი

2024 წლის 13 მარტს, ევროპარლამენტმა პლენარულ სესიაზე მხარი დაუჭირა ევროკომისიის წინადადებას ხელოვნური ინტელექტის შესახებ ჰარმონიზებული წესების (“AI Act”) განმსაზღვრელი რეგულაციის მიღების თაობაზე (523 - მხარდამჭერი; 46 - მოწინააღმდეგე; 49 -  თავი შეიკავა კენჭისყრაში მონაწილეობისაგან). აქტი 2024 წლის პირველ აგვისტოს შევიდა ძალაში.

 

ევროკავშირის „ხელოვნური ინტელექტის შესახებ“ აქტი განსაზღვრავს ევროკავშირის ტერიტორიაზე (წევრ სახელმწიფოებში) ყოველგვარი ხელოვნური ინტელექტის გამოყენების წესებს. აქტის მიხედვით აღნიშნული ტექნოლოგია უნდა შეესაბამებოდეს ევროკავშირის შესახებ ხელშეკრულების მეორე მუხლს, რაც გულისხმობს ადამიანის უფლებების პატივისცემას, მათ შორის, უმცირესობების უფლებების დაცვას. „ხელოვნური ინტელექტის შესახებ“ აქტი სავალდებულო ძალის მქონე დოკუმენტია, რომლის მიზანია სამართლებრივი მოწესრიგების ფარგლებში მოაქციოს ხელოვნური ინტელექტის სისტემების შექმნის, განვითარებისა და გამოყენების პროცესი.

 

წინამდებარე აქტი კატეგორიებად ყოფს ხელოვნური ინტელექტის სისტემებს, რომელთაგან გამოყოფილია კონკრეტული შემთხვევები. საგულისხმოა, რომ მათ მიმართ აქტი კრძალავს ან აწესებს დამატებით მოთხოვნებს. ქტი არეგულირებს ხელოვნური ინტელექტის მიმწოდებლების (“provider”) და გამომყენებლების (“deployers”) საქმიანობას. მისი მოქმედება ვრცელდება ევროკავშირის ბაზარზე, რაც ასევე მოიცავს მესამე ქვეყანაში არსებული მიმწოდებლებისა და გამომყენებლების საქმიანობას, რომლებსაც გააჩნიათ ევროკავშირის ბაზარზე ხელოვნური ინტელექტის სერვისები.

 

საგულისხმოა, რომ აქტის მოქმედება არ ვრცელდება სამეცნიერო კვლევის, თავდაცვის, ეროვნული უსაფრთხოების, საერთაშორისო საჯარო ორგანოების ან სამართალდამცავი ორგანიზაციების მიერ ან არაპროფესიული მიზნებისთვის ხელოვნური ინტელექტის გამოყენებაზე. აქტით არ წესრიგდება უფასო და ღია წყაროს ლიცენზიის მქონე ხელოვნური ინტელექტი, თუ ეს უკანასკნელი არ არის მაღალი რისკის კატეგორიაში მოქცეული. აქტი არ ცვლის პერსონალურ მონაცემთა დაცვის, პირადი ცხოვრების ხელშეუხებლობისა თუ კონფიდენციალობის მომწესრიგებელ კანონმდებლობას.

 

გასათვალისწინებელია, რომ ხელოვნური ინტელექტის სისტემების პოტენციური რისკებისა და ზემოქმედების დონის მიხედვით, აქტი განსაზღვრავს სხვადასხვა ვალდებულებას. მასში კლასიფიცირებულია “AI” სისტემების სამი ძირითადი ჯგუფი, რომელთა მიმართაც განსხვავებული მოთხოვნები და ვალდებულებებია დადგენილი (“unacceptable-risk, high-risk, limitedrisk”).

 

რაც შეეხება ხელოვნური ინტელექტის აქტის სტრუქტურას, იგი დაყოფილია 13 თავად და მოიცავს 113 მუხლს.

 

პირველი თავი ადგენს ხელოვნურ ინტელექტთან დაკავშირებულ ახალ ტერმინებსა და ძირითად დებულებებს.

 

აქტის მეორე თავი მოიცავს დათქმას ხელოვნური ინტელექტის გამოყენების აკრძალვის შესახებ. კონკრეტულად, იგი კრძალავს ხელოვნური ინტელექტის სისტემების გამოყენებას ინდივიდთა გადაწყვეტილების მიღების პროცესზე მანიპულირების, ინდივიდთა კლასიფიცირების და მათ მიერ დანაშაულის ჩადენის რისკის პროგნოზირების მიზნით; აგრეთვე, იმგვარ სისტემებზე, რომელთა მეშვეობით გროვდება ბიომეტრიული მონაცემები და ვიდეოკამერებიდან პირთა სახის გამოსახულება. აღნიშნული წესისგან გამონაკლისი გათვალისწინებულია სამართალდამცავი ორგანოებისთვის, დაკარგული პირების პოვნისა და ტერორიზმის პრევენციის მიზნით.

 

აქტის მესამე თავი შეეხება მაღალი რისკის მქონე ხელოვნური ინტელექტის სისტემებს, რომლებიც გამოიყენება კრიტიკულ ინფრასტრუქტურაში ბიომეტრიული მონაცემების დამუშავებისას, საგანმანათლებლო, სამსახურეობრივ, კერძო და საჯარო სერვისებში, სამართალდამცავ, საიმიგრაციო, და დემოკრატიული პროცესების ადმინისტრაციის სფეროებში. საგულისხმოა, რომ ამ სისტემებმა გაიარონ მესამე პირის მიერ განხორციელებული შეფასებითი პროცედურები, ვიდრე შესაძლებელი იქნება ევროკავშირის ბაზარზე მათი გატანა. ქტის თანახმად, მაღალი რისკის ხელოვნური ინტელექტის რეგულირების მიზნით, საჭიროა რისკის მართვის სისტემის არსებობა, რომელიც დააკვირდება ხელოვნური ინტელექტის პოტენციურ რისკებს. განსაკუთრებული ყურადღება უნდა მიენიჭოს მგრძნობიარე და 18 წლამდე ინდივიდებზე გავლენას. ხელოვნური ინტელექტის ცვლადი ბუნებიდან გამომდინარე, მართვის სისტემებს ასევე უნდა გააჩნდეთ ჩანაწერების შენახვის საშუალება. აუცილებელია, ასევე, ადამიანის ჩარევა მაღალი რისკის ხელოვნური ინტელექტის მართვის პროცესში. აღნიშნულიდან გამომდინარე, სისტემა უნდა იძლეოდეს ადამიანის მხრიდან ზედამხედველობის საშუალებას, ხოლო ხელოვნური სისტემის მიერ განხორციელებული ქმედებები და მიღებული გადაწყვეტილებები უნდა დაექვემდებაროს სულ მცირე ორი კომპეტენტური პირის მიერ შემოწმებას.

 

აღსანიშნავია, რომ აქტის მესამე თავით გათვალისწინებულია, აგრეთვე, განსაკუთრებული მოვალეობები ევროკავშირის ბაზარზე გატანის მსურველი ხელოვნური ინტელექტის მიმწოდებლების მიმართ. აქტი მოითხოვს ყველა წევრ სახელმწიფოში ახალი დამოუკიდებელი ორგანოს შექმნას, რომელიც ზედამხედველობას გაუწევს ხელოვნური ინტელექტის შესაბამისობის შეფასების ორგანოებს (comformity assessment body ან “notified body”). საგულისხმოა, რომ ბაზარზე ხელოვნური ინტელექტის გატანის შესაბამისობის შემოწმების პროცესში, ამის მიზნით შექმნილ ორგანოებს არ შეეძლებათ შესაბამისობის შეფასების მომსახურების გაწევა. შესაბამისად, ამ ორგანოებთან მოხდება შესაბამისობის შემფასებელი ორგანოების აკრედიტირება. აღალი რისკის ხელოვნური ინტელექტის შესაბამისობის შეფასება შესაძლებელია განხორციელდეს ორგვარად: თვით მიმწოდებლის მიერ მისი ადეკვატურობის დადასტურებით ან ორგანოს მიერ მიმწოდებლის მიერ მიღებული დოკუმენტაციით ჩატარებული შემოწმება.

 

აქტის მეოთხე თავი აწესრიგებს იმგვარ განსაკუთრებულ შემთხვევებს, როდესაც ხელოვნური ინტელექტის მიმწოდებლებს და გამომყენებლებს ევალებათ მომხმარებლის შეტყობინება იმის შესახებ, რომ სერვისი მოიცავს ხელოვნურ ინტელექტს. მაგალითად, სურათების შეცვლისას და ბიომეტრიული მონაცემების კატეგორიზაციისას.

 

აქტის ეხუთე თავი აწესრიგებს ზოგადი დანიშნულების ხელოვნურ ინტელექტს, რომლის მიმწოდებლებსაც ეკისრებათ განსაკუთრებული მოვალეობები. ზოგადი დანიშნულების ხელოვნური ინტელექტი (“general-purpose AI”) ასევე შეიძლება მოიცავდეს სისტემურ რისკს იმ შემთხვევაში, თუ განვითარების მიზნით, მას წვდომა აქვს დიდი რაოდენობით მონაცემებზე ან სპეციალური შეფასების შესაბამისად, მათზე ახდენს მაღალ ზეგავლენას. ასეთ შემთხვევაში, მიმწოდებლებს მოეთხოვებათ ამგვარი სისტემური რისკების იდენტიფიცირება და შემცირება.

 

აქტის მეექვსე თავის მიხედვით ყველა წევრ სახელმწიფოში უნდა დამკვიდრდეს ხელოვნური ინტელექტის მარეგულირებელი სატესტო სივრცე (“AI regulatory sandbox”),  სადაც მოხდება ხელოვნური ინტელექტის უსაფრთხო განვითარება. ამგვარი სატესტო სივრცის მეშვეობით მიმწოდებელს შეეძლება სისტემის კანონმდებლობასთან შესაბამისობის უზრუნველყოფა. ინოვაციის მიზნით, შესაძლებელია მაღალი რისკის ხელოვნური ინტელექტის შემოწმება სატესტო სივრცის მიღმაც, მაგრამ ამის განხორციელება შესაძლებელია მხოლოდ ევროკავშირის შესაბამის ორგანოებთან შეთანხმების შემთხვევაში.

 

აქტის მეშვიდე თავი შეეხება სფეროს მართვისა და ზედამხედველობის საკითხებს.

უპირველეს ყოვლისა, ევროკავშირის დონეზე უნდა შეიქმნას ხელოვნური ინტელექტის ოფისი, რომელსაც წევრი სახელმწიფოები განკუთვნილი მიზნების შესრულებაში დაეხმარებიან. აღნიშნული თავით ასევე გათვალისწინებულია სხვა ორგანოები და ექსპერტთა სამუშაო ჯგუფები. ამასთანავე, წევრ სახელმწიფოთა დონეზე ხელოვნური ინტელექტის რეგულაციის შესაბამისობის სამონიტორინგო ორგანოს შექმნის საკითხიც.

 

აქტის მერვე თავი აწესრიგებს ევროკავშირის მონაცემთა ბაზაზე მაღალი რისკის და სხვა ხელოვნური ინტელექტის სისტემების საკითხებს, რომელიც მოიცავს საჭირო ინფორმაციას ევროკავშირის ბაზარზე არსებული ხელოვნური ინტელექტის სისტემების შესახებ.

 

მეცხრე თავი შეეხება ბაზრის დახურვის შემდგომ სამონიტორინგო სისტემას (“post-market monitoring system”), რომელიც კიდევ ერთი აქტის საფუძველზე დამკვიდრებული სისტემაა. იგი აგროვებს და აანალიზებს ხელოვნური ინტელექტის სისტემების მნიშვნელოვან დოკუმენტაციას მისი ბაზარზე არსებობის განმავლობაში და სავალდებულოა მაღალი რისკის ხელოვნური ინტელექტის სისტემებისთვის. აქტში ასევე განხილულია სერიოზული ინციდენტების შემთხვევაში ბაზრის საზედამხედველო ორგანოების შეტყობინების აუცილებლობა, კერძოდ, თუ მიმწოდებელმა ინციდენტი დააკავშირა მისი მაღალი რისკის ხელოვნური ინტელექტის სისტემასთან, მან აღნიშნული ორ დღეში უნდა აცნობოს საზედამხედველო ორგანოს. აღნიშნულის გარდა, ბაზრის საზედამხედველო ორგანოები, რომლებიც აკვირდებიან ხელოვნური ინტელექტის სისტემებს წლიურად აცნობებენ კომისიას და ეროვნულ კონკურენციის ორგანოებს (“national competition authorities”) პოტენციურ გამოწვევებსა და დარღვევებზე. ეცხრე თავში ასევე მოწესრიგებულია საზედამხედველო ორგანოების უფლებამოსილებები და რეგულაციასთან შესაბამისობის უზრუნველყოფის მექანიზმები. ასევე, აღნიშნულია იმგვარი სისტემები, რომლებიც რეგულაციას შეესაბამებიან, თუმცა მაინც წარმოადგენენ რისკს. შესაბამისობის მიუხედავად წევრ სახელმწიფოს ევალება აღნიშნულის კომისიისთვის შეტყობინება, რომელიც შემდგომ საკითხს განიხილავს.

 

მეათე თავი განსაზღვრავს ქცევის კოდექსს, რომელიც ხელოვნური ინტელექტის ოფისის მიერ იქნება შედგენილი და იმუშავებს კონკრეტული სტანდარტების ჩამოყალიბების მიზნით. მეათე თავის თანახმად, ხელოვნური ინტელექტის რეგულაციის იმპლემენტაციის გამარტივების მიზნით, ევროკომისია დამატებით გამოაქვეყნებს სხვადასხვა გზამკვლევს.

 

აქტის მეთერთმეტე თავში მოცემულია უფლებამოსილების დელეგირების და პროცედურული საკითხები, ხოლო მეთორმეტე თავი განსაზღვრავს სანქციების სახეებს ― ჯარიმა, გაფრთხილება და არაფულადი ღონისძიებები, ასევე, მათი დაკისრების სხვადასხვა საკითხს. მნიშვნელოვანია, რომ გამოყენებული სანქცია უნდა იყოს ეფექტიანი და დარღვევის პროპორციული. მისი განსაზღვრისას, ასევე, მიზანშეწონილია მცირე და საშუალო ბიზნესის ინტერესებისა და ეკონომიკური მდგომარეობის გათვალისწინება. საგულისხმოა, რომ „ხელოვნური ინტელექტის აქტთან“ შეუსაბამოების შემთხვევაში, კომპანია დაჯარიმდება 15 მილიონ ევრომდე ან კომპანიის წლიური შემოსავლის 3%-მდე ოდენობით. თუკი კომპანიამ დაარღვია რეგულაციის მეხუთე მუხლით გათვალისწინებული ვალდებულებები, მაშინ მას შეეფარდება ჯარიმა 35 მილიონ ევრომდე ოდენობით ან წლიური შემოსავლის 7%-მდე ოდენობით. ევროკავშირის ინსტიტუტები შესაძლებელია, დაჯარიმდნენ 750 ათასი ევრომდე ან აქტის მე-5 მუხლის დარღვევის შემთხვევაში 1.5 მილიონი ევროს ოდენობით. გასათვალისწინებელია, რომ ხელოვნური ინტელექტის მიმწოდებლები რეგულაციის დარღვევის გამო, შესაძლებელია დაჯარიმდნენ 15 მილიონ ევრომდე ან წლიური შემოსავლის 3%-მდე ოდენობით. აქტის მეცამეტე თავი განსაზღვრავს რეგულაციის დასკვნით დებულებებს.