date

2025-03-24

საფრანგეთის პერსონალურ მონაცემთა დაცვის საზედამხედველო ორგანოს რეკომენდაციები ხელოვნური ინტელექტის შესახებ


საფრანგეთის პერსონალურ მონაცემთა დაცვის საზედამხედველო ორგანომ, ხელოვნური ინტელექტის გამოყენების პროცესის ევროკავშირის „მონაცემთა დაცვის ძირითად რეგულაციასთან“ (“GDPR”) შესაბამისობის უზრუნველყოფის მიზნებისთვის ორი რეკომენდაცია გამოაქვეყნა[1]. რეკომენდაციებში აღნიშნულია, რომ ძირითადი რეგულაციით განსაზღვრული ვალდებულებები ხელოვნური ინტელექტის გამოყენებასთან დაკავშირებულ გამოწვევებს შეესაბამება და უზრუნველყოფს მონაცემთა სუბიექტების ინფორმირებას, ასევე მათთვის რეგულაციით მინიჭებული უფლებებით სარგებლობას.

აღსანიშნავია, რომ ხელოვნური ინტელექტის ზოგიერთი მოდელი ანონიმურია და, შესაბამისად, არ ექცევა ევროკავშირის „მონაცემთა დაცვის ძირითადი რეგულაციის“ მოქმედების ფარგლებში. თუმცა სხვა მოდელები, მაგალითად, „დიდი ენობრივი მოდელი“ (“LLM”), შესაძლოა შეიცავდეს პირთა პერსონალურ მონაცემებს. ამასთან, „მონაცემთა დაცვის ევროპულმა საბჭომ“ (“EDPB”) 2024 წლის დეკემბერში ხელოვნური ინტელექტის მოდელებთან დაკავშირებით ძირითადი რეგულაციის გამოყენების კრიტერიუმები განსაზღვრა.

“GDPR”-ის მიხედვით, პერსონალური მონაცემები დაცული უნდა იყოს, მათ შორის, ე. წ. ხელოვნური ინტელექტის „სწავლების მონაცემთა ნაკრებებში“ (“training datasets”). მიუხედავად იმისა, რომ მოცემულ შემთხვევებზე მონაცემთა დაცვის ფუნდამენტური პრინციპები ვრცელდება, საგულისხმოა რომ ისინი ადაპტირებული უნდა იყოს ხელოვნური ინტელექტის სპეციფიკურ კონტექსტთან.

ორგანიზაციების მიერ პერსონალურ მონაცემების ხელოვნური ინტელექტის მოდელის შესაქმნელად დამუშავების დროს აუცილებელია  მოხდეს მონაცემთა სუბიექტების ინფორმირება. ევროკავშირის კანონმდებლობა მონაცემთა დამუშავების პროცესის გამჭვირვალობის ვალდებულებას ითვალისწინებს, რაც მონაცემთა სუბიექტს თავისი პერსონალური მონაცემების დამუშავების თაობაზე ინფორმაციის მიღების უფლებას ანიჭებს.

დაინტერესებული მხარისათვის აღნიშნული ინფორმაციის მიწოდების ფორმა შესაძლოა ინდივიდუალური რისკებსა და საოპერაციო შეზღუდვებთან ადაპტირდეს. ევროკავშირის „მონაცემთა დაცვის ძირითადი რეგულაციის“ შესაბამისად, თუ ხელოვნურ ინტელექტს მონაცემთა სუბიექტების შესახებ ინფორმაციას მესამე პირი აწვდის და პროვაიდერს არ აქვს შესაძლებლობა ფიზიკურ პირებს უშუალოდ დაუკავშირდეს, დამუშავებისთვის პასუხისმგებელ პირებს შეუძლიათ ინფორმაცია საჯაროდ ხელმისაწვდომ ადგილას განათავსონ (მაგალითად, ვებგვერდზე). როდესაც მონაცემთა შეგროვება რამდენიმე წყაროდან ხდება (როგორც წესი, აღნიშნული ზოგადი დანიშნულების ხელოვნური ინტელექტის მოდელების ახასიათებს) აუცილებელია მონაცემთა მოპოვების წყაროს კატეგორიებისა და ძირითადი წყაროების მითითება. მონაცემთა დამუშავების ევროპული რეგულაციები  მონაცემთა სუბიექტის წვდომის, გასწორების, დაბლოკვის, გასაჩივრებისა და წაშლის უფლებებს განამტკიცებს. აღნიშნულის უზრუნველყოფა შესაძლებელია განსაკუთრებით გართულდეს ისეთ შემთხვევაში, როდესაც ხელოვნური ინტელექტის მიერ მონაცემთა დამუშავების პროცესში რთულია პირის იდენტიფიცირება.

საფრანგეთის პერსონალურ მონაცემთა დაცვის საზედამხედველო ორგანოს რეკომენდაციები ხელოვნური ინტელექტის დეველოპერებს  მოდელების პროექტირების ეტაპიდანვე კონფიდენციალობის დაცვაზე  მიუთითებს. ამასთანავე, “CNIL”-ი რეკომენდაციას უწევს მოდელების დეპერსონალიზაციას, თუკი აღნიშნული არ ეწინააღმდეგება დასახულ ლეგიტიმურ მიზნებს. საზედამხედველო ორგანო აღნიშნავს, რომ ხელოვნურ ინტელექტთან დაკავშირებული საკითხები სამეცნიერო კვლევის თვალსაზრისით დღითიდღე აქტუალური ხდება. შესაბამისად, ინდივიდთა უფლებების მაქსიმალური დაცვის უზრუნველსაყოფად მნიშვნელოვანია “AI”-ით დაინტერესებულ მხარეებს ჰქონდეთ უახლესი მიღწევების შესახებ ინფორმაცია.

აღსანიშნავია, რომ საფრანგეთის საზედამხედველო ორგანომ რეკომენდაციები საჯარო კონსულტაციების საფუძველზე შეიმუშავა. კერძოდ, აღნიშნული საკითხის თაობაზე საკუთარი ხედვები წარადგინეს დაინტერესებულმა მხარეებმა, მათ შორის, ბიზნესსექტორის წარმომადგენლებმა, მკვლევრებმა, მეცნიერებმა, ასოციაციებმა, პროფკავშირებმა და ფედერაციებმა,  რამაც საზედამხედველო ორგანოს საშუალება მისცა მოემზადებინა ხელოვნური ინტელექტის გამოყენებასთან დაკავშირებული აქტუალური პრობლემებისა და გამოწვევების ამსახველი სახელმძღვანელო რეკომენდაცია.

მსგავსი #Datanewsroom