in

AI გადაწყვეტილებების დამოუკიდებლად მისაღებად ჯერ მზად არ არის

მას ადამიანური ინტელექტის დახმარება სჭირდება…

AI შექმნილია იმისათვის, რომ გადაწყვეტილების მიღების პროცესში დაგვეხმაროს მაშინ, როცა მონაცემები, პარამეტრები და ცვლადები ადამიანის უნარებს სცილდება. უმეტეს შემთხვევაში ხელოვნური ინტელექტის სისტემები, კონკრეტული შეზღუდვების გათვალისწინებით, სწორ გადაწყვეტილებებს იღებს. თუმცა მაინც ვერ ახერხებს რეალური გადაწყვეტილების მისაღებად საჭირო ადამიანური ფაქტორების გათვალისწინებას. იქნება ეს ეთიკური, მორალური თუ სხვა ადამიანური საკითხები, რომლებიც წარმართავს ბიზნესის, ცხოვრებისა და, ზოგადად, საზოგადოების კურსს.

pasha-statiebi
pasha-statiebi

ახლა კი ტროლეის პრობლემა განვიხილოთ — ჰიპოთეტური სოციალური სცენარია, რომელიც AI-მდე დიდი ხნით ადრე ჩამოყალიბდა, აქ გადაწყვეტილება უნდა მიიღოთ იმის შესახებ, შეიცვალოს თუ არა მიმართულება, როცა კონტროლიდან გამოსული ტრამვაი კატასტროფის ზონისკენ მიემართება. ეს წამის მეასედში უნდა გადაწყვიტოთ — გადაერთოთ საწყის რელსებზე, სადაც ტრამვაი რამდენიმე ადამიანს მოკლავს თუ ალტერნატიულ რელსზე, სადაც მხოლოდ 1 ადამიანი მოკვდება. 

ტროლეის პრობლემა ეთიკური და მორალური გადაწყვეტილების მიღების მწვერვალად ითვლება. რამდენად შეიძლება ამის გამოყენება ხელოვნური ინტელექტის შემთხვევაში, რათა განვსაზღვროთ, არის თუ არა იგი მზად რეალური სამყაროსთვის, სადაც სისტემები დამოუკიდებლად ფიქრობს, ადამიანის მსგავს ეთიკურ და მორალურ გადაწყვეტილებებს იღებს?

მსგავსი პრობლემები ხელოვნურ ინტელექტში სხვადასხვა ფორმით ვლინდება, მაგალითად, შესაძლოა, Airbnb-იდან ნაქირავები სახლის ირგვლივ ნაგვით სავსე გარემო აღმოაჩინოთ და უარყოფითი შეფასების დაწერის სურვილი გაგიჩნდეთ, მაგრამ მეორე დილით სასიამოვნო დიასახლისმა სრულად შეცვალოს თქვენი განწყობა, ბაღიდან ხილის აღება შემოგთავაზოთ და გაგიზიაროთ მისი პრობლემები პანდემიის დროს. ეს, დიდი ალბათობით, პირველ გადაწყვეტილებას დაგავიწყებთ… მაგრამ, როგორ უნდა გაუმკლავდეს ასეთ სიტუაციებს AI პროგრამა? სავარაუდოდ, იგი დიასახლისის მიმართ თანაგრძნობას არ გამოხატავდა და გადაწყვეტილებას ფაქტებზე დაფუძნებით მიიღებდა. 

AI, როგორც საბოლოო გადაწყვეტილების მიმღები

ხელოვნური ინტელექტი ადამიანის ტვინს უწევს კონკურენციას, ხშირად განსაცვიფრებელი სიზუსტით, ხარისხითა და სიჩქარით. მაგრამ შეუძლია თუ არა მას უფრო სუბიექტური გამოცდილების, გრძნობებისა და ემპათიის შეთავაზება, რაც ჩვენს სამყაროს საცხოვრებლად უკეთეს ადგილად აქცევს? ხელოვნური ინტელექტი ალგორითმებზეა დაფუძნებული, რომლებიც პასუხობს მოდელებსა და მონაცემებს, რის გამოც დიდი სურათის დანახვა უჭირს. გამოდის, იგი ჯერ არც ადამიანური თვისებების მისაღებად არის მზად… ახლა კი კონკრეტული მაგალითები განვიხილოთ.

UBER — მანქანების ავტონომიურად მართვა: ექსპერიმენტის დროს თვითმართვადი მანქანა ადამიანს დაეჯახა და მოკლა მაშინ, როცა ველოსიპედი გზაზე, გადასასვლელისგან მოშორებით, გადაჰყავდა. დამხმარე მძღოლი კი ამ დროს ვიდეოს უყურებდა, რის გამოც ქვეითის შემჩნევა ვერ მოახერხა, ადამიანები ამას ნამდვილად დაინახავდნენ და მანქანას გააჩერებდნენ. ამასთან, სოციალურმა საბჭომ დაადგინა, რომ AI-მ მხოლოდ იმიტომ ვერ მოახერხა ქვეითის შემჩნევა, რომ იგი გადასასვლელთან ახლოს არ იყო. ეს კი თვითმართვადი მანქანის არასათანადო ტრენინგზე მიუთითებდა. 

Amazon — დასაქმების მიკერძოებები: კომპანიამ AI მოდელი შექმნა, რათა რეზიუმეების მიხედვით საუკეთესო კანდიდატი ამოერჩია, თუმცა იგი პრიორიტეტს მამაკაცების რეზიუმეებს ანიჭებდა… იმისათვის, რომ პროგრამა გენდერულად ნეიტრალური გამხდარიყო, მრავალი რამ სცადეს, თუმცა ბოლოს მაინც გააუქმეს იგი. 

Microsoft: ჩეთბოტი, სახელწოდებით TAY, შექმნა, რომელსაც რეალურ ადამიანებთან ურთიერთობა უნდა შესძლებოდა, მაგრამ მან ავტონომიურად მუშაობისას რასისტული და დამამცირებელი შეტყობინებების გავრცელება დაიწყო. შესაბამისად, კომპანიამ ბოტი 24 საათში გააუქმა და ეს გამოცდილებად ჩათვალა. 

დიახ, AI-ზე დაფუძნებული გადაწყვეტილების მიღების ნაკლოვანებებს დიდი გავლენა შეიძლება ჰქონდეს ბიზნესებზე… მაგალითად, ბანკები ალგორითმებს ეყრდნობა, რათა განსაზღვრონ, მისცენ თუ არა მომხმარებელს სესხი და არა, მომხმარებლის სიტუაციის ხასიათს. აქ კი ტროლეის პრობლემა ის არის, რომელი უფრო ოპტიმალურია ბანკისთვის, შეინარჩუნოს ნაყოფიერი ურთიერთობა მომხმარებელთან თუ არა. ამასთან, AI გადაწყვეტილებას იმ კონტენტზეც იღებს, რომელსაც ვკითხულობთ ან ვათვალიერებთ — აქ შემდეგი კითხვა ჩნდება, შეუძლია თუ არა ხელოვნურ ინტელექტს ისეთივე მიუკერძოებელი კონტენტი გვაჩვენოს, როგორც ამას ადამიანები აკეთებენ. AI პროდუქტების შესახებ რეკომენდაციებსაც კი გვაძლევს. დიახ, ხელოვნური ინტელექტის რეკლამებს სოციალურ მედიაში ხედავთ, ხოლო თუ იგი უფრო მეტ სფეროში გავრცელდება, უკეთეს შედეგებსაც მივიღებთ. 

რა უნდა გააკეთონ ხელმძღვანელებმა AI ტროლეის დილემების თავიდან ასაცილებლად?

წაახალისეთ და ჩამოაყალიბეთ ორგანიზაციული კულტურა და ტრენინგები, რომლებიც AI გადაწყვეტილებებში ეთიკურობას უსვამს ხაზს — მანქანებისა და მონაცემების ადაპტირება და მონიტორინგი შესაძლებელია, მაგრამ ადამიანები, რომლებიც ქმნიან და იყენებენ AI სისტემებს, უნდა იყვნენ განათლებული და იცოდნენ უფრო ჰოლისტიკური გადაწყვეტილების მიღების საჭიროების შესახებ. ეს კი ეთიკას, მორალსა და სამართლიანობას მოიცავს. ბიზნესები შეიძლება ამაზე იყოს დამოკიდებული. ამიტომ, ხელმძღვანელებს მსგავსი ტონის დაყენება და AI-ზე დაფუძნებული სისტემების მიერ მიღებულ გადაწყვეტილებების ყოველ ნაბიჯზე დაკვირვება სჭირდებათ. 

ამოიღეთ მიკერძოებები მონაცემებიდან — მონაცემები ხელოვნური ინტელექტის მოდელების საწვრთნელად გამოიყენება, თუმცა იგი გაცნობიერებულად თუ გაუცნობიერებლად, მიკერძოებულ ინფორმაციებს მოიცავს, რაც დაკავშირებულია რასასთან, გენდერთან, წარმოშობასა თუ პოლიტიკურ იდენტობასთან. ამიტომ, ტრენინგებში, რომლებიც AI სისტემებისთვისაა განკუთვნილი, მხოლოდ დადასტურებული, ავტორიტეტული და სანდო წყაროებიდან მიღებული მონაცემები უნდა შეიყვანოთ. 

გააერთიანეთ ხელოვნური და ადამიანური ინტელექტი მანქანური სწავლების მოდელების შესაქმნელად — ბევრი ხელმძღვანელი აღიარებს, რომ მათ ხელოვნური ინტელექტის გადაწყვეტილებებში ჩარევა უსამართლო შედეგების გამო მოუწიათ. ამიტომ, AI გადაწყვეტილებების უგულებელყოფა მარტივი და პრაქტიკული უნდა იყოს. სასურველ შედეგს კი ხელოვნური და ადამიანური ინტელექტის გაერთიანებით უნდა მიაღწიოთ. 

შეამოწმეთ ვალიდურობა რეალურ სამყაროში დანერგვამდე — ალგორითმებს იმის გაკეთება უნდა შეეძლოთ, რასაც მათგან მოელიან, თუმცა ხელმისაწვდომ მონაცემებზე დაფუძნებით. მნიშვნელოვანია, უზრუნველყოთ, რომ ალგორითმი სხვა მექანიზმების მიერ არის დამოწმებული. ისინი უნებლიე შედეგებით უნდა შემოწმდეს, რომლებიც სუბიექტურ და ცუდ მონაცემებს ეფუძნება. 

ასწავლეთ მანქანებს ადამიანური ღირებულებები — ხელოვნური ინტელექტი მხოლოდ იმ პროგრამირებასა და მონაცემებს ასახავს, რომლებიც მასში შედის. ამიტომ, ბიზნესის ხელმძღვანელებმა უნდა იცოდნენ, ცივი, მონაცემების საფუძველზე მიღებული შეხედულებები გადაწყვეტილების მიღების პროცესის მხოლოდ ნაწილია. 

დასკვნა: AI არ არის საკმარისად მზად იმისათვის, რომ რეალური სამყაროს შესაბამისი გადაწყვეტილებები შემოგვთავაზოს

ხელოვნური ინტელექტი სულ უფრო უახლოვდება იმ წერტილს, სადაც მას გადაწყვეტილების მიღება ადამიანის გარეშე შეუძლია, აქ DALL-E-ს, BERT-ის, GPT-3-ისა და Jurassic-1-ის პროგრამები შეგვიძლია ვიგულისხმოთ. დიახ, მიღწევების უმეტესობა ვირტუალურ სამყაროში გვხვდება და შექმნილია მედია კონტენტის წარმოებისა თუ მანიპულირებისთვის. 

თუმცა ფიქრობენ, რომ AI-ს ჯერ კიდევ დიდი გზა აქვს გასავლელი იმისათვის, რომ რეალურ სამყაროში არსებული სიტუაციებისთვის შესაბამისი გადაწყვეტილებები მიიღოს, რაც უფრო ჰოლისტურ და სუბიექტურ მსჯელობას მოითხოვს. ის ჯერ კიდევ ფაქტებზე მომუშავე ძრავაა, რომელიც ქულებსა და ალბათობებზე დაფუძნებით მოქმედებს, პირადი ინფორმაციების ზეგავლენის გარეშე. დიახ, AI-ს შეუძლია სწორი გადაწყვეტილება ფაქტებზე დაყრდნობით მიიღოს, თუმცა იგი ამ პროცესში თანაგრძნობას ვერ გამოიჩენს. ამიტომ, გადაწყვეტილებების მიღებისას, უმჯობესი იქნება, თუ ხელოვნურ და ადამიანურ ინტელექტს გააერთიანებთ. 

წყარო: HBR



მელბურნის ფესტივალზე მწერალთა ნაწარმოებები AI გამოსახულებებით გააცოცხლეს

საქართველოში iPhone 14-ის წინასწარი გაყიდვები იწყება: Apple-ის მთავარი ახალი პროდუქტების მიმოხილვა