ვებგვერდი მუშაობს სატესტო რეჟიმში
განმარტებადი ხელოვნური ინტელექტი (XAI)

განმარტებადი ხელოვნური ინტელექტი (XAI)

შენიშვნა: წინამდებარე დოკუმენტი მომზადებულია ევროპის მონაცემთა დაცვის ზედამხედველის (EDPS)   TechDispatch #2/2023 - Explainable Artificial Intelligence -ის მიხედვით.

თანამედროვე ტექნოლოგიების ინდუსტრიის დიდი ნაწილი, ამ ეტაპზე, ხელოვნური ინტელექტის (AI) განვითარებისკენაა მიმართული. პარალელურად, ყოველდღიურ ცხოვრებაში (მაგ. ე.წ ჭკვიანი მოწყობილობები, ხმოვანი ასისტენტები, ჩატ-ბოტები და სხვა)  ამ სისტემების როლი დღითიდღე უფრო მნიშვნელოვანი ხდება და ცალკეულ სფეროებში (როგორიცაა ჯანდაცვა, საბანკო სექტორი და სხვა) გადაწყვეტილებების მიღების პროცესის გამარტივებასაც უწყობს ხელს.

ხელოვნური ინტელექტის სისტემების ჩამოყალიბება და განვითარება მისთვის მიწოდებულ ინფორმაციაზეა დამოკიდებული. მომდევნო ეტაპზე ამ სისტემების მიერ დავალებების შესრულება (გადაწყვეტილების მიღება, პროგნოზირება და სხვა) კი კონკრეტულ საკითხთან დაკავშირებით არსებული მონაცემების დამუშავებას ეფუძნება. მართალია ხელოვნური ინტელექტის მუშაობას პოზიტიური გავლენა აქვს სხვადასხვა სფეროების განვითარებაზე, თუმცა ამასთანავე შესაძლოა გარკვეულ საფრთხეებსა და რისკებს ქმნიდეს ადამიანის უფლებებისა და თავისუფლებებისთვის, განსაკუთრებით კი პერსონალურ მონაცემთა დაცვისთვის.

შესაბამისად, მნიშვნელოვანია რომ ხელოვნური ინტელექტის სისტემების შემუშავებისა და მისი შემდგომი გამოყენების პროცესში გათვალისწინებული იყოს მონაცემთა დაცვის მარეგულირებელი სამართლებრივი ნორმები. საყურადღებოა რომ 2024 წლის 1 აგვისტოს ძალაში შევიდა ევროკავშირის „ხელოვნური ინტელექტის აქტი“, რომელიც აღნიშნული სისტემების პირველ სამართლებრივ მარეგულირებელ ჩარჩოს წარმოადგენს. მისი მიზანია ხელოვნური ინტელექტის განვითარების პროცესში უზრუნველყოს უსაფრთხოება, ფუნდამენტური უფლებებისა და ეთიკის პრინციპების დაცვა.

AI სისტემების მიერ მონაცემთა დამუშავებისას განსაკუთრებით მნიშვნელოვანია ამ პროცესების გამჭირვალობა, რადგანაც ხელოვნური ინტელექტის მიერ მიღებულმა გადაწყვეტილებებმა და პროგნოზებმა უდიდესი გავლენა შეიძლება იქონიონ პირთა უფლებებზე. ამასთან, AI სისტემების არსებული მოდელები, უმეტეს შემთხვევებში, არ არიან აღჭურვილი იმგვარი ტექნიკური შესაძლებლობებით, რაც ინდივიდებისთვის მარტივად გასაგებს გახდიდა თუ რას ეფუძნება მის მიერ მიღებული შედეგები.  

პერსონალურ მონაცემთა დაცვის სამსახურის #DataTechანალიტიკის აღნიშნულ დოკუმენტში გაეცნობით თუ რა მნიშვნელობა აქვს გამჭირვალობას ხელოვნური სისტემების მუშაობის პროცესში, რა საფრთხეებს შეიძლება შეიცავდეს AI-ის გადაწყვეტილებების ბუნდოვანება, რა არის განმარტებითი ხელოვნური ინტელექტი (XAI) და რა როლი შეიძლება ჰქონდეს მას AI სისტემების განვითარებაში.

შესავალი

ხელოვნური ინტელექტი (AI) დღითიდღე უფრო დიდ ადგილს იკავებს საქმიანობის ისეთ სფეროებში როგორიცაა - ჯანდაცვა, ფინანსები, სატრანსპორტო, მრეწველობისა და გართობის ინდუსტრია. მისი მზარდი პოპულარობა დიდწილად გამოწვეულია ამ ტექნოლოგიების მიერ დავალებების ავტომატიზაციის უნარით (როგორიცაა, დიდი რაოდენობით ინფორმაციის დამუშავება, შაბლონების ამოცნობა), ფართო საზოგადოებისთვის მისი ხელმისაწვდომობით, რისი თვალსაჩინო მაგალითებიცაა - ChatGPT[2] და Stable Diffusion[3].[4]

მიუხედავად იმისა, რომ ხელოვნური ინტელექტი უფრო მეტად გამოყენებადი ხდება, აღნიშნული სისტემების მუშაობის, გადაწყვეტილებების მიღების პროცესი ბუნდოვანი შეიძლება იყოს როგორც ხელოვნური ინტელექტის სისტემის მიმწოდებლებისთვის (ე.წ „პროვაიდერებისთვის“), ასევე იმ ორგანიზაციებისთვის, რომლებიც იყენებენ ამ სისტემებს და მათთვის, ვისზეც AI სისტემის გადაწყვეტილებას ექნება გავლენა. ეს ფენომენი  „შავი ყუთის“ ეფექტად არის ცნობილი.

ხელოვნური ინტელექტის სისტემები, როგორიცაა მანქანური სწავლება (ML) და ღრმა სწავლება (DL), იყენებენ თვითნასწავლ და არა უშუალოდ ადამიანის მიერ სწავლების პროცესში[5] პროგრამირებით  მიღებულ ალგორითმებს.  ამ შემთხვევებში, ხელოვნურმა ინტელექტმა შესაძლოა აღმოაჩინოს ახალი ურთიერთკავშირები გარკვეულ მახასიათებლებს შორის (მაგალითად, კლინიკური სიმპტომები), მიიღოს გადაწყვეტილება ან მოახდინოს პროგნოზირება (მაგალითად, სამედიცინო დიაგნოზების)  დიდი რაოდენობის ურთიერთმოქმედი პარამეტრების შემცველ  კომპლექსურ მოდელებზე დაყრდნობით.  იმის გაგება თუ როგორ იქნა ამ პროცესის შედეგად მონაცემები მიღებული, ზოგჯერ თავად ხელოვნური ინტელექტის ექსპერტებისთვისაც კი რთული გასაგებია  (Peters, 2023).

ხელოვნური ინტელექტის სისტემების მიერ კონკრეტული გადაწყვეტილებების მიღების მიზეზი ბუნდოვანი შეიძლება იყოს როგორც იმ პირებისთვის ვინც ამ ტექნოლოგიებს იყენებს, ასევე იმ პირთათვის, ვისზეც ეს გადაწყვეტილებები  იქონიებს გავლენას. „შავი ყუთის“ ეფექტმა შესაძლოა გამოიწვიოს  უსაფუძვლო ნდობა ან ზედმეტი დამოკიდებულება ხელოვნური ინტელექტის სისტემებზე, რაც ორივე შემთხვევაში უარყოფით გავლენას იქონიებს ინდივიდებზე.

პროცესების გამჭირვალობის მხრივ არსებული გამოწვევები, არამხოლოდ გადაწყვეტილებებს ხდის ბუნდოვანს, არამედ ხელოვნური ინტელექტის ნაკლოვანებების (როგორიცაა მიკერძოებულობა[6], უზუსტობები ან ე.წ „ჰალუცინაციები“[7]) დაფარვასაც უწყობს ხელს.

დაბალხარისხოვნად შემუშავებული, შემოწმებული ალგორითმების მიერ  მიღებული გადაწყვეტილებები  დისკრიმინაციული და ზიანის მომტანი შეიძლება იყოს.

მაგალითად, როდესაც ორგანიზაცია იყენებს AI-ს ვაკანსიაზე წარმოდგენილი კანდიდატების შესარჩევად, სისტემებმა შეიძლება შემთხვევით უპირატესობა მიანიჭონ გარკვეულ დემოგრაფიულ მახასიათებელს ან სხვა ინფორმაციას. ასევე, როდესაც ხელოვნური ინტელექტი გამოიყენება სამედიცინო დიაგნოსტიკის მიზნებისთვის, მან შესაძლოა არასწორი დიაგნოზი დასვას ან გამოჩრეს გარკვეულ დემოგრაფიულ ჯგუფთან დაკავშირებული ზოგიერთი მაჩვენებელი.

„შავი ყუთის“ ხელოვნური ინტელექტის სისტემის შემთხვევაში, რთულია იმის გაგება, თუ რატომ შეირჩა გარკვეული კანდიდატი და რატომ უნდა ეთქვას უარი სხვა კანდიდატებს. სამედიცინო სფეროს წარმომადგენლების შემთხვევაში კი შესაძლოა რთული იყოს იმის გააზრება თუ რას ეყრდნობა სისტემების მიერ მიღებული გადაწყვეტილებები, რაც პოტენციურ მიკერძოებულობაზე მათ რეაგირებას ხელს შეუშლის.

გამჭვირვალობასთან დაკავშირებული ნაკლოვანებების წყალობით, გადაწყვეტილებების უკან მდგომი ლოგიკის, მისი პოტენციური შედეგების თაობაზე ინფორმირებულობის კუთხით დაბრკოლებები ექმნებათ იმ პირებსაც ვისზეც პირდაპირი გავლენა ექნება ამ გადაწყვეტილებებს. მაგალითად,  AI მოდელების  სესხის დამტკიცების პროცესში გამოყენებისას ბანკის მომხმარებელს შესაძლოა არ ჰქონდეთ ინფორმაცია ავტომატურ გადაწყვეტილებებზე, რასაც გავლენა ექნება მის ფინანსურ ცხოვრებაზე.

 

1. განმარტებადი ხელოვნური ინტელექტი (XAI)

განმარტებადი ხელოვნური ინტელექტი (XAI) არის AI-ი სისტემების შესაძლებლობა  მკაფიოდ და გასაგებად განმარტონ თავიანთი ქმედებები და გადაწყვეტილები. მისი მთავარი მიზანია ადამიანებისთვის გასაგები გახდეს ხელოვნური ინტელექტის სისტემების ქცევა გადაწყვეტილების მიღების პროცესის გამჭირვალობით.

ხელოვნური ინტელექტის გადაწყვეტილებების განმარტების გაუმჯობესების მცდელობებს, ხშირად, უშუალოდ AI-ის მკვლევარებზე და არა მისი მომხმარებლების საჭიროებებზე მორგებულ განმარტებებთან მივყავართ. ეს კი კომპლექსური გადაწყვეტილებების დამაკმაყოფილებლად განმარტების ტვირთს ხელოვნური ინტელექტის ექსპერტებს  აკისრებს (Miller T. H., 2017).  იდეალურ შემთხვევაში, XAI-ს უნდა ჰქონდეს სისტემის კომპეტენციების, კონკრეტული საკითხების ხელოვნური ინტელექტისებური აღქმის ახსნის უნარი, უნდა შეეძლოს ამ სისტემების წარსული ქმედებების, მიმდინარე პროცესებისა და მომავალი ნაბიჯების განმარტება და  მის ქმედებებთან დაკავშირებული რელევანტური ინფორმაციის მიწოდება (Gunning, 2019).

გამჭირვალობა, ინტერპრეტირებადობა და განმარტებადობა XAI-ის უმნიშვნელოვანესი მახასიათებლებია.

ხელოვნურ ინტელექტთან მიმართებით გამჭვირვალობას, ინტერპრეტირებადობას და განმარტებადობას არ აქვს ფორმალური განმარტება და ზოგჯერ ურთიერთშენაცვლებადიც კი არის.

აღნიშნული დოკუმენტის მიზნებისთვის, მათი განმარტება შემდეგნაირია:

  • გამჭირვალობა - მიემართება კონკრეტული მოდელის ტექნიკურ შესაძლებლობას იყოს „გაგებული“. ეს გულისხმობს რომ მოდელი არის გამჭირვალე თუ ადამიანს შეუძლია ერთიანად  ან  ცალკეული პარამეტრის/მონაცემის/გამოთვლის კუთხით აღიქვას მისი მუშაობის პროცესი (Lepri, 2018).

 AI-ის გამჭირვალე სისტემა უზრუნველყოფს ანგარიშვალდებულებას. კერძოდ, დაინტერსებულ პირებს გადაწყვეტილების მიღების პროცესის  შეფასებისა და შემოწმების, მიუკერძოებლობისა და უსამართლო გადაწყვეტილებების აღმოჩენის, ეთიკურ სტანდარტებთან და სამართლებრივ მოთხოვნებთან შესაბამისად მუშაობის უზრუნველყოფის შესაძლებლობას ანიჭებს.

  • ინტერპრეტირებადობა - მიემართება „შავი ყუთის“ მოდელის და  მის მიერ მიღებული გადაწყვეტილების ადამიანის მიერ გაგების ხარისხს. (Lisboa, 2013) (Miller T. H., 2017). 

ინტერპრეტირებადი ხელოვნური ინტელექტის მოდელები ადამიანებს  საშუალებას აძლევს შეაფასონ თუ რის პროგნოზირებას მოახდენს AI მოდელი ასახული მონაცემების საფუძველზე და გაიაზრონ როდის დაუშვა მან შეცდომა.

  • განმარტებადობა - უზრუნველყოფს კონკრეტული ხელოვნური ინტელექტის მოდელის პროგნოზებთან და გადაწყვეტილებებთან მიმართებით  ნათელ და ლოგიკურ განმარტებას. მიღებულ შედეგთან დაკავშირებით, ადამიანისთვის აღქმადი დასაბუთებისა და მიზეზების მიწოდებით,   ის პასუხს სცემს ისეთ კითხვაზე, როგორიცაა: „რატომ გააკეთა AI სისტემამ კონკრეტულად ეს პროგნოზი?“ (Thampi, 2002).

განმარტებადობა განსაკუთრებით მნიშვნელოვანია იმ შემთხვევაში, როდესაც საქმე ადამიანის სიცოცხლესა და განსაკუთრებული კატეგორიის მონაცემებს ეხება, რამდენადაც ის ეხმარება ტექნოლოგიის მომხმარებელს, მარეგულირებელს და დაინტერესებულ პირს გაერკვეს თუ  რას ეფუძნება AI-ის მიერ გამომუშავებული შედეგები. განმარტებადობა მნიშვნელოვანია AI სისტემებისადმი ნდობის ჩამოყალიბებისთვისაც.[8]

 

2. განმარტებადი ხელოვნური ინტელექტის მოდელები

განმარტებადი ხელოვნური ინტელექტისადმი არსებული მიდგომების ორი კატეგორია შეიძლება გამოვყოთ: თვითგანმარტებადი მოდელები, რაც გულისხმობს რომ ინტერპრეტაციის უნარი ხელოვნური ინტელექტის პროექტშივეა ჩაშენებული, და post hoc განმარტებები, რაც გულისხმობს რომ პირველ რიგში ხდება სისტემის ქცევაზე დაკვირვება, ხოლო ამის შემდეგ მისი ქმედებების, გადაწყვეტილებების ახსნა.

„თეთრი ყუთი“ : თვითგანმარტებადი მოდელები

„თეთრი ყუთის“ მოდელებში გამოყენებადი ალგორითმები მარტივია გასაგებად და შესაძლებელია იმის განმარტება თუ როგორ გადაიქცევა შეყვანილი მახასიათებლები მიღებულ მონაცემებად ან მიზნობრივ ცვლადებად. (Thampi, 2002).

განმარტებები შესაძლოა სხვადასხვა დონეზე იყოს მიღებული: მთლიანი მოდელის შესახებ, ინდივიდუალური კომპონენტის (მაგალითად, ასახული პარამეტრები) თაობაზე ან  ცალკეული სწავლების ალგორითმის დონეზე.

საგულისხმოა რომ პრაქტიკაში გვხვდება „თეთრი ყუთის“ ისეთი მოდელები, როგორიცაა:  ხისებრი დიაგრამა (decision tree) და ხაზოვანი რეგრესია (linear regression).

ხისებრი დიაგრამის მოდელის მაგალითი შეიძლება იყოს ელექტრონული ფოსტის კლასიფიკაციის სისტემა, რომელიც ავტომატურად განსაზღვრავს შემომავალი ელექტრონული ფოსტის შეტყობინება არის თუ არა სპამი.  მოდელი თავდაპირველად „იწვრთნება“ ელექტრონული ფოსტის შეტყობინებების მონაცემთა ნაკრებზე (dataset),  რომლებიც მონიშნულია როგორც „სპამი“ და „არა სპამი“ და რეკურსიულად ანაწილებს მონაცემებს მათ მახასიათებლებზე დაყრდნობით, რათა შექმნას ხის მსგავსი სტრუქტურა. ყოველ „კვანძში“ ხე ირჩევს მახასიათებელს, რომელიც ელ-ფოსტის შეტყობინების კლასიფიცირების მიზნებისთვის ყველაზე მეტ ინფორმაციას იძლევა.  საბოლოო ხის დიაგრამა შეიძლება წარმოვიდგინოთ როგორც ბლოკ-სქემის (flowchart) მსგავსი სტრუქტურა. ყოველი „კვანძი“ წარმოადგენს  პირობას (მაგალითად, „ეს ელ-ფოსტის შეტყობინება შეიცავს სიტყვა „თავისუფალს“?“),   და თითოეული შტო განასახიერებს სავარაუდო შედეგს, რომელიც ამ წინაპირობას ეფუძნება.  ხის ფოთლები კი განასახიერებს კლასიფიცირების საბოლოო შედეგს („სპამი“, „არა სპამი“).

AI-ის ზოგიერთი ტიპი სპეციფიკურ სირთულეებს ქმნის მათი თანდაყოლილი კომპლექსურობიდან და განმარტებითობასთან დაკავშირებული ნაკლიდან გამომდინარე. ასეთი კომპლექსური აგებულების მაგალითია ნეირონული ქსელები, რომლებიც  ერთმანეთთან დაკავშირებული ხელოვნური ნეირონების მრავლობით ფენას შეიცავს, თითოეული ეს ფენა კი  ახორციელებს გამოთვლებს და გადასცემს სიგნალს მის შემდგომ ფენას.

ხშირ შემთხვევებში, ხელოვნური ინტელექტის შიდა პროცესების  ამსახველი  განმარტებები  მის მოდელებზე არანაკლებ კომპლექსური შეიძლება იყოს (Lipton, 2018). შესაბამისად, ნაკლებად სავარაუდოა რომ ხელოვნური ინტელექტის მოდელები ყოველ ჯერზე  თვითგანმარტებითი იქნება.

„შავი ყუთი” : post hoc განმარტებები

Post hoc განმარტებები გენერირდება ხელოვნური ინტელექტის მიერ გადაწყვეტილების მიღების შემდეგ. იგი შეიძლება კვალიფიცირდეს როგორც გლობალური ან ადგილობრივი განმარტებები.

  • გლობალური განმარტებები იძლევა AI მოდელის ქცევისა და გადაწყვეტილების მიღების პროცესის ზოგად  განმარტებას და მისი მიზანია იმ შაბლონების, ტენდენციებისა და ინფორმაციის გამოკვეთა, რაც მთლიანობაში მიესადაგება AI მოდელის ქცევას. (მაგალითად,  „როგორ ირჩევს სისტემა ვაკანსიის საუკეთესო კანდიდატებს?“)

გლობალური განმარტების მეთოდის მაგალითია „მახასიათებლის მნიშვნელობა“ (“feature importance”) (Breiman, 2001), რომლის მეშვეობითაც     ხდება AI მოდელის გადაწყვეტილებაზე ყველაზე დიდი გავლენის მქონე მახასიათებლების ან/და ცვლადების იდენტიფიცირება. ეს იძლევა ინფორმაციას თუ რომელმა მონაცემებმა ითამაშა ყველაზე დიდი როლი AI-ის პროგნოზებსა და კლასიფიკაციებზე. მაგალითად,  მომხმარებლის  მოსმენილი სიმღერების ისტორია, ჟანრის პრეფერენცია და სიმღერის მეტამონაცემები (metadata) ისეთი მახასიათებლებია, რომლებიც შესაძლოა უმნიშვნელოვანესი იყოს  მუსიკის რეკომენდაციის სისტემებისთვის.

გლობალური განმარტების სხვა მეთოდია „წესების ამოღება“ (rule extraction” ) (Craven, 1996), რომელიც გამოიმუშავებს ადამიანისთვის წაკითხვად წესებს ან კომპლექსური მოდელის ქცევებთან მიმსგავსებულ  გადაწყვეტილების ხეს (decision tree). ეს ქმნის გადაწყვეტილების მიღების საერთო სურათს და უზრუნველყოფს განმარტებითობას.  სამედიცინო დიაგნოსტიკის მოდელის შემთხვევაში შესაძლებელია იმ წესების გამოყოფა, რომლებიც მიანიშნებენ სიმპტომების სპეციფიკურ კომბინაციებზე, ანალიზის პასუხებზე და პაციენტის მახასიათებლებზე, რასაც საბოლოო ჯამში კონკრეტულ დიაგნოზამდე მივყავართ. (მაგალითად, „თუ პაციენტის ასაკი არის 50 წელზე მეტი და არტერიული წნევა აქვს მაღალი, მაშინ დიაგნოზი არის ჰიპერტენზია“)

  • ადგილობრივი განმარტებების მეთოდი ფოკუსირდება კონკრეტულ შედეგთან დაკავშირებით ხელოვნური ინტელექტის მოდელის გადაწყვეტილების მიღების პროცესზე, (მაგალითად, „რატომ მეთქვა უარი დასაქმებაზე?“)  და არ ხდება  განმარტება იმისა თუ როგორ იღებს  მთლიანობაში AI მოდელი გადაწყვეტილებებს. ადგილობრივი  განმარტების მეთოდის მიზანია, გასაგები გახადოს მოდელის ქცევა კონკრეტულ შემთხვევასთან მიმართებით და როგორ იქნა მიღებული ესა თუ ის გადაწყვეტილება ან პროგნოზი.

ადგილობრივი განმარტებების მეთოდის ორი  მაგალითია “LIME” და “SHAP”.

“LIME” („ადგილობრივი ინტერპრეტირებადი მოდელ-აგნოსტიკური განმარტებები“), (Ribeiro, 2016), არის მეთოდი, რომელიც „შემნაცვლებელ“ (ე.წ. „სუროგატ“) მოდელებს ქმნის. ისინი უფრო მარტივი და მეტად ინტერპრეტირებადია, მომხმარებელს შესაძლებლობას აძლევს აღიქვას თუ რა მნიშვნელობა აქვს სისტემისთვის მიწოდებულ მონაცემებს მოდელის გადაწყვეტილებაზე. 

მაგალითად, “LIME”-ის მეშვეობით, ისეთი მახასიათებლების საფუძველზე, როგორიცაა შემოსავალი, საკრედიტო ქულა და დასაქმების ისტორია, შეიძლება განისაზღვროს დაუმტკიცებდნენ თუ არა სესხს კონკრეტულ ინდივიდს. მსგავს შემთხვევაში, “LIME”-ი სავარაუდოდ განმარტავდა რომ AI მოდელმა სესხი დაუმტკიცა პირს, რადგან გადაწყვეტილებაზე ყველაზე მნიშვნელოვანი, დადებითი გავლენა იქონია მისმა მაღალმა საკრედიტო ქულამ და სტაბილურმა დასაქმების ისტორიამ.

“SHAP” („SHAPley-ის ადიტიური განმარტებები“) (Lundberg, 2017) არის მეთოდი, რომელიც მახასიათებლების ყველა შესაძლო კომბინაციის გათვალისწინებით, გამოიანგარიშებს რა წვლილი აქვს შეტანილი   თითოეულ მახასიათებელს კონკრეტული პროგნოზირების საბოლოო შედეგში.

მაგალითად, ეს შეიძლება იყოს მანქანური სწავლების მოდელი, რომელიც გამოიანგარიშებს სახლის საბაზრო ღირებულებას, მისი ისეთი მახასიათებლების გათვალისწინებით, როგორიცაა: ფართობი, საძინებლების რაოდენობა, ქალაქის ცენტრიდან დაშორება.

სახლის თითოეული მახასიათებლების მიმართ “SHAP”-ის მეთოდის გამოყენება შესაძლებელს გახდის იმის აღქმას თუ რა წვლილი შეიტანა კონკრეტულმა მახასიათებლებმა,  ამ კონკრეტული სახლის ღირებულების პროგნოზსა და სხვა დანარჩენ სახლების ღირებულების საშუალო პროგნოზს შორის სხვაობაში.

ზოგიერთ კვლევაში მითითებულია რომ post hoc განმარტებები არ უნდა იყოს მიჩნეული სანდოდ. „ტექნიკური და ფილოსოფიური თვალსაზრისით, ეს განმარტებები ვერასდროს მოგვცემს იმის „უნიკალურ და ნამდვილ მიზეზს“ თუ რატომ მივიდა ალგორითმი ამა თუ იმ დასკვნამდე“ (Bordt, 2022),  „ყველაზე ცუდ შემთხვევაში, განმარტებებმა შესაძლოა გვიბიძგოს ცრურწმენისკენ, რომ AI მოდელის მიერ  „დასაბუთებული“ და „ობიექტური“ გადაწყვეტილება იქნა მიღებული“ (Bordt, 2022).

 

3. XAI და პერსონალურ მონაცემთა დაცვა

XAI-ის მიერ ხელოვნური ინტელექტის გადაწყვეტილებების განმარტებას დიდი როლი შეიძლება ჰქონდეს პერსონალურ მონაცემთა დამუშავების პრინციპების (განსაკუთრებით კი გამჭირვალობის, სამართლიანობისა და ანგარიშვალდებულების) უზრუნველყოფაში.

გამჭირვალობა

გამჭირვალობა მონაცემთა დამუშავების პროცესში გასათვალისწინებელი უმნიშვნელოვანესი პრინციპია. პერსონალური მონაცემების დამუშავება უნდა მოხდეს კანონიერად, სამართლიანად. ეს პროცესი უნდა იყოს გამჭირვალე მონაცემთა სუბიექტისთვის.

დამუშავებისთვის პასუხისმგებელმა პირმა უნდა მიიღოს სათანადო ზომები, რომ მონაცემთა სუბიექტს დამუშავებასთან დაკავშირებული ინფორმაცია მიეწოდოს მარტივი, მისთვის გასაგები, მკაფიო და ხელმისაწვდომი ფორმით.

პერსონალურ მონაცემთა შეგროვებისას სუბიექტს უნდა მიეწოდოს  ავტომატიზებული ინდივიდუალური გადაწყვეტილებების (მაგალითად, პროფაილინგის თაობაზე) და  გამოყენებული ლოგიკის თაობაზე ინფორმაცია.[9]

XAI-ის, გადაწყვეტილებამდე მიმყვანი ფაქტორების მითითებით, შეუძლია აღქმადი გახადოს თუ როგორ ამუშავებს პერსონალურ მონაცემებს ხელოვნური ინტელექტის სისტემები და როგორ მიდის კონკრეტულ დასკვნებამდე.

გარდა სამართლებრივი ვალდებულებისა, გამჭირვალობა ხელოვნური ინტელექტის სისტემებისადმი ნდობასა და მისი გამოყენების პროცესში თავდაჯერებულობას  განამტკიცებს.

დამუშავებისთვის პასუხისმგებელი პირის ანგარიშვალდებულება

ორგანიზაციები ვალდებულნი არიან პერსონალურ მონაცემები დაამუშაონ კანონიერად და გამჭირვალედ, რაც გულისხმობს იმგვარი მექანიზმების დანერგვის აუცილებლობას, რითიც უზრუნველყოფილი იქნება არამხოლოდ მონაცემთა დაცვის პრინციპებთან შესაბამისობა, არამედ დამუშავების პროცესის ეფექტიანი ზედამხედველობაც.

სისტემების აღქმადობა და ანგარიშვალდებულება უზრუნველყოფს დამუშავებისთვის პასუხისმგებელი პირების მხრიდან რისკების შეფასების პროცესის გაუმჯობესებას (მაგალითად, როდესაც მათი მხრიდან ხდება მონაცემთა დაცვაზე ზეგავლენის შეფასება).

XAI-ის სათანადო გამოყენება ხელს შეუწყობს ორგანიზაციების მიერ ხელოვნური ინტელექტის დახმარებით მიღებული გადაწყვეტილებების კონტროლს, ანგარიშვალდებულებას,[10]  ხელოვნური ინტელექტის ეთიკურ განვითარებას, ასევე უზრუნველყოფს საზოგადოების მიერ ამ ტექნოლოგიისადმი ნდობის განმტკიცებას და იმას რომ AI-ის გამოყენება სათანადო წესების დაცვით მოხდება.

მონაცემთა მინიმიზაცია

XAI-ის მიერ გადაწყვეტილებების მიღების პროცესში ყველაზე მნიშვნელოვანი ფაქტორებისა და მახასიათებლების გამოვლენა  ხელს შეუწყობს მონაცემთა შეგროვების, შენახვის და დამუშავების  შემცირებას.

განმარტებადი ხელოვნური ინტელექტის მიერ გადაწყვეტილებების მიღების პროცესში კრიტიკული მნიშვნელობის მონაცემების იდენტიფიცირება უზრუნველყოფს   მონაცემთა მიზნობრივ შეგროვებას, რაც თავის მხრივ, შეამცირებს ინდივიდების პირად ცხოვრებაში ჩარევას, პარალელურად ხელოვნური ინტელექტის მიერ ეფექტიანი, ზუსტი შედეგების მიღებით.

განსაკუთრებული კატეგორიის მონაცემები

ხელოვნური ინტელექტის სწავლების პროცესში შესაძლოა მოხდეს განსაკუთრებული კატეგორიის მონაცემების დამუშავებაც, რომელთა ბოროტად ან არასწორად გამოყენებამაც შესაძლოა საფრთხეები შეუქმნას პირის პირადი ცხოვრების დაცულობას. 

AI ალგორითმების გაუმჭვირვალობამ შესაძლოა განსაკუთრებული კატეგორიის მონაცემთა დამუშავებასთან დაკავშირებით მომეტებული საფრთხეები გამოიწვიოს და გავლენა იქონიოს სისტემის შედეგებზეც. მაგალითად, ხელოვნური ინტელექტის სწავლებისას გამოყენებული მონაცემებიდან შესაძლოა პირის კონკრეტულ განსაკუთრებული კატეგორიის მონაცემებთან (პირის რელიგიური მრწამსი ან სექსუალური ორიენტაცია) დაკავშირებით დასკვნების გამოტანა.

AI სისტემებს შეუძლია დააიდენტიფიციროს მონაცემთა სუბიექტთან კავშირში მყოფ კონკრეტულ მახასიათებლებსა და ინფორმაციას შორის ურთიერთდამოკიდებულება. ეს შესაძლოა გამოყენებული იყოს ინდივიდების შესახებ კონკრეტული კატეგორიის მონაცემებთან დაკავშირებით დასკვნების გასაკეთებლად.

მაგალითად, ზოგიერთი დასახლებული პუნქტის შემთხვევაში შესაძლოა ურთიერთკავშირი არსებობდეს მოსახლეობის ეთნიკურობასა და საფოსტო ინდექსს შორის, რაც ამ უკანასკნელს ეთნიკურობის მაჩვენებლად აქცევს. AI სისტემამ შესაძლოა ამ ურთიერთდამოკიდებულების იდენტიფიცირება მოახდინოს და გადაწყვეტილებაც ამ მახასიათებლის გათვალისწინებით მიიღოს. მაგალითად, პირის საკრედიტო სანდოობასთან დაკავშირებული გადაწყვეტილების მიღებისას. თუმცა, ამ შემთხვევაში დიდია საფრთხე, რომ ინდივიდის შესახებ ეს დასკვნები არასწორი იქნება.

XAI-ის დანერგვა ავტომატურად არ გულისხმობს დამუშავების პროცესის მონაცემთა დაცვის რეგულაციებთან შესაბამისობას. თუმცა, განმარტებადი ხელოვნური ინტელექტი, როგორც ტექნიკური საშუალება, დაეხმარება დამუშავებისთვის პასუხისმგებელ პირს იმის დემონსტრირებაში, რომ მონაცემთა დამუშავება განხორციელდება მონაცემთა დამუშავების პრინციპების შესაბამისად,  დამუშავების საფუძვლის, ბუნების, კონტექსტისა და ფარგლების, ადამიანის უფლებებზე სავარაუდო საფრთხეების გათვალისწინებით.

 

4. XAI-ის გამოყენებასთან დაკავშირებული საფრთხეები

მიუხედავად იმისა რომ XAI-ის აქვს ხელოვნური ინტელექტის სანდოობისა და გამჭირვალობის უზრუნველყოფის პოტენციალი, მისმა გამოყენებამ შესაძლოა გარკვეული საფრთხეები შეუქმნას როგორც დამუშავებისთვის პასუხისმგებელ პირებს, ასევე ამ სისტემების დეველოპერებს, ინჟინერებს და მონაცემთა სუბიექტებს.

არაზუსტი ინტერპრეტაცია

დამუშავებასთან დაკავშირებული ინფორმაცია მონაცემთა სუბიექტებს უნდა მიეწოდოთ გამჭვირვალე, გასაგები და ადვილად ხელმისაწვდომი გზით, მკაფიო და მარტივი ფორმით. ახსნა-განმარტებები უნდა მიეწოდოთ პროფესიული ტერმინებისა და ტექნიკური სირთულეების გარეშე.

არაზუსტი ინტერპრეტაციის საფრთხეების შემცირებისათვის ორგანიზაციებმა, პირველ რიგში, უნდა დააიდენტიფიცირონ დაინტერესებული პირები, ვისთვისაც ისინი განმარტებების მიწოდებას აპირებენ და თითოეული მათგანის საჭიროებებს მოარგონ შემდგომი განმარტებები. XAI-ის მეთოდების სათანადო ყურადღებით შეფასება, „გამოცდა“ უზრუნველყოფს არასრული და არასწორი განმარტებების პრევენციასა და  მის მიერ AI სისტემების ქცევის ზუსტ ასახვას.

ორგანიზაციებმა უნდა უზრუნველყონ რომ XAI-ის განმარტებები იყოს არამხოლოდ მკაფიო, არამედ ამავდროულად მიუკერძოებელიც.

სისტემების პოტენციური ექსპლუატაცია

ორგანიზაციებს სჭირდებათ სათანადო ტექნიკური და ორგანიზაციული ზომების გატარება, რათა უზრუნველყონ ინდივიდებისთვის მონაცემთა დამუშავების უსაფრთხოების ადეკვატური დონე (კონფიდენციალურობა, მთლიანობა, ხელმისაწვდომობა). ეს მოიაზრებს პერსონალურ მონაცემთა და იმ ინფორმაციის გამჟღავნების რისკების თავიდან აცილებას, რომლებიც შესაძლოა AI სისტემების ექსპლუატაციისთვის გამოიყენებოდეს და პოტენციურად გავლენა იქონიოს ინდივიდებზე.

XAI-ის მიერ სისტემების მუშაობის შესახებ გაკეთებული განმარტებები შესაძლოა ბოროტად იყოს გამოყენებული სისტემის ხარვეზების აღმოჩენისთვის და მასზე თავდასხმის გამარტივებისთვის (Kuppa, 2021).  შესაბამისად, სათანადო სიფრთხილით უნდა მოხდეს გამჭირვალობასა და სისტემის სენსიტიური კომპონენტების დაცვას შორის ბალანსის უზრუნველყოფა.

კომერციული საიდუმლოების გამჟღავნება

განმარტებითი ხელოვნური ინტელექტის გამოყენება ბიზნესის კონკურენტუნარიანობის შემცირების რისკებს ქმნის. აღნიშნული გამომდინარეობს საკუთრებასთან დაკავშირებული ინფორმაციის ან მნიშნველოვანი ბიზნეს სტრატეგიების გამჟღავნების თავიდან აცილების მნიშვნელობიდან. ერთის მხრივ, პირებს, რომელთა უფლებებზეც ხელოვნური ინტელექტის გადაწყვეტილებები  იქონიებს გავლენას,  უნდა მიეწოდოთ   განმარტებები ამ სისტემების მუშაობასთან დაკავშირებით, მეორეს მხრივ კი,  აღნიშნული უნდა განხორციელდეს იმგვარად რომ არ მოხდეს საკუთრების უფლებასთან დაკავშირებული ალგორითმების, კომერციული საიდუმლოებების თუ სხვა დეტალების გაუმართლებელი გამჟღავნება.

AI-ის სისტემებზე დამოკიდებულება

განმარტებების არსებობამ შესაძლოა ადამიანების მიერ AI-ის რეკომენდაციებისადმი უპირობოდ ნდობა გამოიწვიოს, მიუხედავად იმისა არის თუ არა ეს განმარტებები რეალობასთან შესაბამისობაში.

მნიშვნელოვანია ადამიანების ჩართულობა  XAI-ის იმპლემენტაციის პროცესში, კერძოდ, მათი მოსაზრებების,  გადაწყვეტილებებისადმი კრიტიკული პოზიციის გამოხატვის უზრუნველყოფის გზით.  ეს შეესაბამება ფიზიკური პირების უფლებას, არ დაექვემდებაროს მხოლოდ ავტომატიზებულად, მათ შორის, პროფაილინგის საფუძველზე, მიღებულ გადაწყვეტილებას, რომელიც მისთვის წარმოშობს სამართლებრივ ან სხვა სახის არსებითი მნიშვნელობის მქონე შედეგს.

ხელოვნური ინტელექტის  შეზღუდული შესაძლებლობების შესახებ ნათელი/მკაფიო ინფორმირება ტექნოლოგიური პროგრესის ფარგლებში  პასუხისმგებლიანი და სოციალურად მისაღები გადაწყვეტილებების მიღებას შეუწყობს ხელს.

 

5. ადამიანური ფაქტორის მნიშვნელობა

AI სისტემების განმარტებებისთვის გამოყენებული მეთოდის მიუხედავად, აუცილებელია ამ AI-ის „სამიზნე აუდიტორიის“ გათვალისწინება და მათზე მორგებული, რელევანტური ინფორმაციის მიწოდება.

ადამიანები შესაძლოა  ერთმანეთისგან განსხვავებულად აღიქვამდნენ და იაზრებდნენ მათთვის მიწოდებულ ინფორმაციას. განმარტებების პროცესში  შემდეგი ფაქტორები უნდა იყოს გათვალისწინებული:

  • ადამიანები მიდრეკილნი არიან არამხოლოდ იმის გაგებისკენ თუ რატომ მოხდა ესა თუ ის მოვლენა, არამედ აინტერესებთ თუ „რატომ მოხდა “A”  და არა “B”. კონტრასტული განმარტებები კი  ხაზს უსვამს სხვადასხვა ვარიანტებს შორის საკვანძო განსხვავებებზე და ამით კომპლექსური გადაწყვეტილებების გაგებას ამარტივებს. (Miller T., 2019);
  • კომპლექსური განმარტებებისას  ინდივიდები ფოკუსირდებიან იმ  დეტალებზე, რომლებიც მათთვის ყველაზე რელევანტურია. ისინი იხრებიან იმ განმარტებებისკენ რომლებიც მათ ცოდნასთან არის თანხვედრაში. (Mittelstadt, 2019);
  • ხელოვნური ინტელექტის სისტემების განმარტებები უნდა იყოს კონტექსტუალური, ანუ ითვალისწინებდეს კონკრეტული დავალების შინაარსს, მომხმარებლის მოლოდინებსა და  შესაძლებლობებს.(Gunning, 2019).
  •  AI სისტემის სიზუსტისა და საიმედოობისადმი, მისი განმარტებებისადმი ინდივიდების ნდობის ფაქტორს უდიდესი მნიშვნელობა ენიჭება - ზედმეტად რთულმა, არასრულმა, არაზუსტმა განმარტებებმა მთლიანად სისტემისადმი უნდობლობა შეიძლება გამოიწვიოს (Ribeiro, 2016).
  • განმარტებების მიწოდებისას მხედველობაში არის მიღებული მისი სამიზნე აუდიტორიის რწმენები/აღქმები. შესაბამისად, მათზე შეიძლება გავლენა ჰქონდეს საზოგადოების ჯგუფის ქცევებს, მიღებულ ნორმებს, მორალს და სხვა ფაქტორებს (Miller T., 2019).

6. დასკვნა

ინდივიდების ნდობის მოპოვებისთვის აუცილებელია ხელოვნური ინტელექტი  იყოს გამჭვირვალე, ანგარიშვალდებული და ეთიკური[11]. ამაში მნიშვნელოვანი როლი შეიძლება ჰქონდეს განმარტებად ხელოვნურ ინტელექტს.

XAI-ის კონცეფცია მოიცავს „ადამიანზე ორიენტირებული“ ხელოვნური ინტელექტის შექმნის ვალდებულებას. AI-ის გადაწყვეტილებების უკან მდგომი ლოგიკის განმარტებით, ინდივიდებს მიეწოდებათ ინფორმაცია თუ როგორ მუშავდება მათი პერსონალური მონაცემები გადაწყვეტილებების მიღების პროცესში. ამგვარი გამჭვირვალობა არამხოლოდ სანდოობის, არამედ მონაცემთა დაცვის პრინციპების გარანტორიცაა.

XAI-ის დახმარებით მონაცემთა სუბიექტებს შეეძლებათ უსამართლო გადაწყვეტილებების იდენტიფიცირება და გასაჩივრება. ეს გადაწყვეტილების მიღების პროცესის სამართლიანობას, თანასწორ მიდგომებსა და დისკრიმინაციის აღმოფხვრას უზრუნველყოფს.

ხელოვნური ინტელექტის გამოყენებისას, მხედველობაში უნდა იყოს მიღებული როგორც მისი ცვალებადი პოტენციალი, ასევე  ის მნიშვნელოვანი გავლენები რასაც იგი როგორც ცალკეულ პირებზე, ასევე მთლიანად საზოგადოებაზე იქონიებს. XAI-ის მეშვეობით, მომავალში AI-ის განმსაზღვრელი იქნება არამხოლოდ მისი ტექნოლოგიური შესაძლებლობები, არამედ ადამიანის უფლებების, ეთიკის დაცვისა და  ანგარიშვალდებულების უზრუნველყოფის ფაქტორიც.

XAI-ი გარდა დადებითი მხარეებისა, როგორც ზემოთ იქნა ხაზგასმული, პოტენციური (იხ. „4. XAI-ის გამოყენებასთან დაკავშირებული საფრთხეები“) საფრთხეების მატარებელიცაა.

ხელოვნური ინტელექტის სისტემების შესაძლებლობებისა და მასზე მოთხოვნის ზრდის კვალდაკვალ იზრდება საფრთხე იმისა, რომ  აღნიშნული სისტემების დეველოპერები „მარტივი გზის“ მოძებნას დაიწყებენ და სიახლეების ძიების პროცესში ეთიკის საკითხებს უგულებელყოფენ. საზოგადოებას კი ეკისრება პასუხისმგებლობა მოითხოვოს AI-ის განვითარების პროცესში ადამიანის უფლებებისა და თავისუფლებების (განსაკუთრებით კი პირადი ცხოვრებისა და პერსონალურ მონაცემთა დაცვის უფლების)  უზრუნველყოფის ხელშეწყობა.

 

[1] European Data Protection Supervisor (EDPS),  TechDispatch on Explainable Artificial Intelligence, 16.11.2023, <https://www.edps.europa.eu/system/files/2023-11/23-11-16_techdispatch_xai_en.pdf>

[2] იხ. https://chat.openai.com

[3] იხ. https://stablediffusionweb.com/

[4] ხელოვნური ინტელექტის ტექნოლოგიები  ხელმისაწვდომობისა და მოსახერხებლობის ტენდენცია, შესაძლოა მოიხსენიებოდეს როგორც "AI-ის დემოკრატიზაცია".

[5] AI-ის შემთხვევაში, სწავლება გულისხმობს ხელოვნური ინტელექტისთვის მონაცემების მიწოდებას მათი შესწავლის მიზნებისთვის. როგორც წესი, ეს გულისხმობს სამაგალითო მონაცემთა ფართო ნაკრებს (dataset) ან გარკვეული ნიშნით დაჯგუფებულ ინფორმაციას.

[6] ეს ფენომენი, ალგორითმის განვითარების პროცესში ჩამოყალიბებული მცდარი წარმოდგენებიდან გამომდინარეობს, რაც შემდგომში სისტემურ ხასიათს იღებს.

[7] AI-ის „ჰალუცინაცია“, გულისხმობს რომ მიღებული შედეგები შესაძლოა დამაჯერებლად ჟღერდეს თუმცა ისინი ფაქტობრივად არასწორია ან არსებულ კონტექსტთან შეუსაბამო.

[8] ამასთან, თუ სისტემა თავისთავად საკმარისად განმარტებადია, შესაძლოა ამის დამატებითი საჭიროება აღარ არსებობდეს. აღნიშნული მიღწევა უფრო მარტივია AI-ის ზოგიერთი, ნაკლებად კომპლექსური, მოდელის შემთხვევაში.

[9] Article 29 Data Protection Working Party (WP29), Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679, 22.08.2018, <https://ec.europa.eu/newsroom/article29/items/612053>.

[10] The Court of Justice of the European Union (CJEU) (Grand Chamber), no. C-817/19, Ligue des droits humains ASBL v. Conseil des ministres, 21.06.2022, §§ 194-195.