date

2025-01-31

„მონაცემთა დაცვის ევროპული საბჭოს“ („EDPB“) მოსაზრება ხელოვნური ინტელექტის მოდელების შესახებ


18 დეკემბერს, „მონაცემთა დაცვის ევროპულმა საბჭომ“ (EDPB”), გამოაქვეყნა მოსაზრება „ხელოვნური ინტელექტის სისტემების განვითარებისა და გამოყენების მიზნით პერსონალურ მონაცემთა დამუშავების“ თაობაზე.[1] მოსაზრებაში განხილულია შემდეგი ძირითადი საკითხები:  ხელოვნური ინტელექტის მოდელის ანონიმურობის კრიტერიუმები: რა შემთხვევაში შეიძლება იყოს ლეგიტიმური ინტერესი ხელოვნური ინტელექტის მოდელის განვითარების და გამოყენების სამართლებრივი საფუძველი;  მოდელის განვითარებისას  პერსონალური მონაცემთა უკანონო დამუშავების შედეგები. მოსაზრება შეიცავს ინფორმაციას მოდელის შექმნის და დანერგვის მიზნებით მონაცემთა დამუშავებისას მესამე მხარეთა მიერ გასათვალისწინებელი მოთხოვნების შესახებ.

დოკუმენტი შეიქმნა ირლანდიის მონაცემთა დაცვის საზედამხედველო ორგანოს ინიციატივის საფუძველზე,[2] ევროპის მასშტაბით შესაბამისი კანონმდებლობის ჰარმონიზაციის მიზნით.  მოსაზრების მომზადების პროცესში დაინტერესებულ პირთა ჩართულობით გაიმართა სამუშაო შეხვედრები ევროკავშირის ხელოვნური ინტელექტის ოფისთან.

გამოქვეყნებული მოსაზრების თანახმად, ხელოვნური ინტელექტის მოდელის  ანონიმურობის შეფასების საკითხი მონაცემთა დაცვის საზედამხედველო ორგანოების დისკრეციას წარმოადგებს[3] და შესაბამისად, მონაცემთა დაცვის საზედამხედველო ორგანოებმა იგი ცალკეული ინდივიდუალური შემთხვევების შეფასების საფუძველზე უნდა განსაზღვრონ.[4] ხელოვნური ინტელექტის სისტემა ანონიმურია, თუ მისი მეშვეობით დიდი ალბათობით შეუძლებელია: (1) მონაცემთა სუბიექტების პირდაპირ ან არაპირდაპირ იდენტიფიცირება და (2) შეუძლებელია მოდელისათვის კითხვების დასმის შედეგად მიღებული პასუხებისაგან პერსონალური მონაცემების განცალკევება. მოსაზრება შეიცავს ანონიმურობის განსაზღვრის თეორიულ მეთოდთა  არასრულ ჩამონათვალს.[5]

მოსაზრებაში წარმოდგენილია ის ზოგადადი გასათვალისწინებელი საკითხები, რომელთა მეშვეობითაც საზედამხედველო ორგანოები შეაფასებენ მოდელის განვითარებისა და გამოყენების მიზნით მონაცემთა დამუშავების ლეგიტიმური ინტერესის სამართლებრივ საფუძველს. მოდელის შეფასების პროცესში დამხმარე ფაქტორის ფუნქციას შეასრულებს სამ-საფეხურიანი ტესტი,  მისი საშუალებით კი შეფასდება მონაცემთა დამუშავების სამართლებრივ საფუძვლად ლეგიტიმური ინტერესის გამოყენების საკითხი.

საბჭოს მოსაზრება ხელოვნური ინტელექტის გამოყენების ისეთ მაგალითებს განიხილავს, როგორიცაა: მომხმარებელთა დამხმარე სასაუბრო აგენტი და კიბერუსაფრთხოების გასაუმჯობესებლად ხელოვნური ინტელექტის გამოყენება. წინამდებარე შემთხვევებში, ხელოვნური ინტელექტის გამოყენებით საზოგადოებისათვის სასარგებლო მომსახურების გაწევა ხდება შესაძლებელი.

მოსაზრება ასევე მოიცავს იმ კრიტერიუმებს, რომელიც დაეხმარება საზედამხედველო ორგანოებს შეაფასონ, შეიძლება თუ არა ცალკეულ მონაცემთა სუბიექტს გააჩნდეს გონივრული მოლოდინი  მისი პერსონალური მონაცემების კონკრეტულ კონტექსტში გამოყენების შესახებ. აღნიშნული კრიტერიუმები ეყრდნობა შედმგომ გარემოებებს: იყო თუ არა მონაცემთა სუბიექტის პერსონალური მონაცემები საჯაროდ ხელმისაწვდომი; პიროვნებასა და მონაცემთა დამუშავებისთვის პასუხისმგებელს პირს შორის არსებული ურთიერთობის ხასიათი; მომსახურების ტიპი; პერსონალური მონაცემების შეგროვების კონტექსტი და მონაცემთა შეგროვების წყარო; ასევე, მოდელის  შემდგომი გამოყენების შესაძლო ვარიანტები; და მონაცემთა სუბიექტების ცოდნა იმის შესახებ, რომ მათი პერსონალური მონაცემები ხელმისაწვდომია ინტერნეტ სივრცეში.[6]

იმ შემთხვევაში, თუ მონაცემთა დამუშავების ინტერესისა და მონაცემთა სუბიექტების უფლებათა დაცვის დაბალანსების ტესტი აჩვენებს, რომ მონაცემთა დამუშავება არ უნდა განხორციელდეს მონაცემთა სუბიექტებზე პოტენციური უარყოფითი ზეგავლენის გამო, გასავრცელებელი ზომების შემცირებამ შესაძლოა  შეამციროს ეს უარყოფითი გავლენა. მოსაზრება მოიცავს ასეთი შემამსუბუქებელი ღონისძიებების მაგალითების არასრულ ჩამონათვალს, რომელიც შეიძლება იყოს ტექნიკური ხასიათის და მონაცემთა სუბიექტებს გაუადვილოს საკუთარი უფლებების განხორციელება, ან გაზარდოს მონაცემთა დამუშავების გამჭვირვალობა.

იმ შემთხვევაში, როდესაც ხელოვნური ინტელექტის მოდელი იქმნება უკანონოდ დამუშავებულ პერსონალურ მონაცემებზე დაყრდნობით, შესაძლოა პრობლემები შეიქმნას მოდელის დანერგვის კანონიერების მხრივაც, თუ იგი ანონიმურობის სათანადო ხარისხს არ ითვალისწინებს. ხელოვნური ინტელექტის მოდელების  მრავალფეროვნებისა და მათი სწრაფი ევოლუციის გამო, „მონაცემთა დაცვის ევროპული საბჭოს“ მიერ გამოქვეყნებული მოსაზრება წარმოადგენს პრაქტიკულ სახელმძღვანელოს ცალკეულ შემთხვევათა ანალიზის მიზნებისათვის.

 

[3] EDPB Releases opinion on personal data use in AI model development https://iapp.org/news/a/edpb-opinion-sheds-light-on-lawful-ai-training-dpa-discretion

 

[5] GDPR and AI Models: Key Insights from the EDPB’s Latest Opinion https://www.jdsupra.com/legalnews/gdpr-and-ai-models-key-insights-from-2117554/

 

[6] EDPB opinion on the processing of personal data in the context of AI models

 https://www.connectontech.com/edpb-opinion-on-the-processing-of-personal-data-in-the-context-of-ai-models/

მსგავსი #Datanewsroom