in

რა კავშირშია AI და სამართლიანობა ერთმანეთთან, დაქირავების პროცესში?

გახდის თუ არა ხელოვნური ინტელექტი (AI) გადაწყვეტილებებს უფრო სამართლიანს? დღეს, როცა კომპანიების თითქმის 90% დაქირავების პროცესში AI-ს იყენებს, ეს კითხვა ბევრი ლიდერის დღის წესრიგში დგას და აზრებიც ორად იყოფა. ერთ მხარეს არიან ისინი, ვისაც სჯერა, რომ ალგორითმები შეამცირებს ადამიანურ „მიკერძოებას“ და პროცესს უფრო ობიექტურს გახდის. მეორე მხარეს კი დგანან სკეპტიკოსები, რომლებიც გვაფრთხილებენ, რომ ალგორითმებმა შეიძლება არსებული უთანასწორობა უბრალოდ გაციფრულოს და გაამძაფროს. თუმცა, ორივე მხარეს მხედველობიდან რჩება ერთი კრიტიკული დეტალი: როდესაც AI შემოდის თამაშში, ის თავიდან განსაზღვრავს, თუ რას ნიშნავს სიტყვა „სამართლიანი“.

კომპანიების უმეტესობა AI-ინსტრუმენტებს ისე ნერგავს, რომ სიღრმისეულად არ აფასებს მათ გავლენას. სამართლიანობა განიხილება როგორც პროდუქტის მახასიათებელი, რომელიც ინსტრუმენტს „მოყვება“, და არა როგორც პროცესი, რომელსაც მუდმივი მონიტორინგი სჭირდება. რისკი სერიოზულია: AI-მ შეიძლება შეავიწროოს კანდიდატთა აუზი, გვერდზე გაწიოს ადამიანური ექსპერტიზა და სამართლიანობის მხოლოდ ერთი, ვიწრო განმარტება დააკანონოს.

ახალმა კვლევამ აჩვენა, როგორ ცვლის სამართლიანობის სხვადასხვა განმარტება დაქირავების შედეგებს და რა კითხვები უნდა დასვან ლიდერებმა, რათა ტექნოლოგიამ რეალური სარგებელი მოიტანოს.

დაკვირვება სამი წლის განმავლობაში გლობალურ სამომხმარებლო კომპანიაში მიმდინარეობდა, რომელიც წელიწადში 10 000-ზე მეტ განაცხადს ამუშავებს. სამართლიანობის გაზრდის მიზნით, HR-მა რეზიუმეების განხილვა „ბლაინდ“ თამაშებითა და AI-ანალიზით ჩაანაცვლა. ალგორითმი არსებული თანამშრომლების მონაცემებზე გაიწვრთნა – სისტემა სწავლობდა, რომელი პიროვნული თვისებები განაპირობებდა წარმატებას და ამის მიხედვით წინასწარმეტყველებდა ახალი კანდიდატების „თავსებადობას“. სახელები, უნივერსიტეტები და დემოგრაფიული მონაცემები დაფარული იყო. იდეა მარტივი ჩანდა: მონაცემებზე დაფუძნებული წესები პროცესს უფრო სამართლიანს გახდიდა.

მაგრამ მასშტაბის ზრდასთან ერთად, სამართლიანობის აღქმა შეიცვალა. HR პრიორიტეტს ანიჭებდა თანმიმდევრულობას, მაშინ როცა უშუალო მენეჯერები ადგილობრივ კონტექსტს აფასებდნენ – მათ იცოდნენ, რომ წარმატებული კანდიდატი სხვადასხვა ბაზარსა და გუნდში სხვადასხვანაირია. წლების განმავლობაში ეს ორი ხედვა თანაარსებობდა, მაგრამ ალგორითმმა HR-ის პრინციპები ურყევ წესებად აქცია. დროთა განმავლობაში, სამართლიანობის „ალგორითმულმა ვერსიამ“ დომინირება დაიწყო, ხოლო ადგილობრივ საჭიროებებზე მორგებული ხედვა გაქრა.

ლიდერებმა უნდა შეწყვიტონ კამათი იმაზე, ადამიანი უფრო სამართლიანია თუ მანქანა. ამის ნაცვლად, მათ უნდა დასვან კითხვები, რომლებიც გამოავლენს, რას ნიშნავს „სამართლიანი“ მათ ორგანიზაციაში და ვის ანიჭებენ ამის განსაზღვრის ძალაუფლებას.

მკვლევრების მიერ შესწავლილ კომპანიაში HR-ისთვის სამართლიანობა ნიშნავდა სტანდარტულ პროცედურებს. როცა მენეჯერები ამ ჩარჩოდან გადაუხვევდნენ, HR ამას „ადამიანურ შეცდომად“ აღიქვამდა. არადა, მენეჯერები უბრალოდ კონტექსტს ითვალისწინებდნენ. მაგალითად, ერთმა უფროსმა მენეჯერმა მოინდომა სტაჟიორის აყვანა, რომელსაც პირადად იცნობდა და იცოდა, რომ ის კონკრეტულ რეგიონში კარგად იმუშავებდა. ალგორითმმა კი ეს კანდიდატი „შეუსაბამოდ“ მონიშნა პიროვნული ტესტის საფუძველზე. HR-მა დაიცვა მოდელი, მენეჯერმა კი ეს თავისი გამოცდილების უგულებელყოფად მიიღო.

გამოსავალი? ლიდერებმა უნდა გამოავლინონ ეს განსხვავებული ხედვები. კარგი პრაქტიკაა მონაცემთა მეცნიერების ჩართვა დაქირავების პროცესში, რათა მათ დაინახონ, რას თვლიან „სამართლიანად“ სხვადასხვა ჯგუფები. ასევე ეფექტურია „ეთიკური ინფრასტრუქტურის“ შექმნა. მაგალითად, H&M Group-მა შექმნა „ეთიკური AI სადებატო კლუბი“, სადაც გუნდები რეალურ სცენარებს განიხილავენ და ეთიკურ დილემებზე მსჯელობენ.

AI თავისით არაფერს წყვეტს, ძალაუფლებას მას ადამიანები ანიჭებენ. ამ რიტორიკამ გააჩუმა მენეჯერები, რომლებიც წუხდნენ, რომ სისტემა კანდიდატების „კლონირებას“ ახდენდა და არატიპურ ტალანტებს კარგავდა.

მოცემული მაგალითის შემთხვევაში, 72%-ზე დაბალი ქულის მქონე კანდიდატები ავტომატურად იბლოკებოდნენ. ის, რაც ადრე განსჯის საგანი იყო, მკაცრ ხაზად იქცა. შედეგად, კომპანიამ დაიწყო ძალიან მსგავსი ადამიანების დაქირავება და მხედველობიდან გამორჩა ის პოტენციალი, რომელიც ალგორითმულ პროფილში არ ჯდებოდა.

ამის თავიდან ასაცილებლად საჭიროა რეგულარული რევიზია. მონაცემთა მეცნიერებმა, HR-მა და მენეჯერებმა პერიოდულად უნდა გადახედონ რეალურ ქეისებს. IBM ამისთვის იყენებს ინსტრუმენტს AI Fairness 360, რომელიც მოდელებს სხვადასხვა კრიტერიუმით ამოწმებს და საშუალებას იძლევა, დავინახოთ, როგორ იცვლება შედეგები პარამეტრების ცვლილებისას.

წყარო: HBR



25%-იანი ფასდაკლება საბურავებზე, აკუმულატორებსა და ანტიფრიზზე – „გადააგორე ზამთარი“ „თეგეტა მოტორსთან“ ერთად

გაატარეთ ახალი წელი Rooms Batumi-ში და Rooms Kazbegi-ში – ღონისძიების წარმდგენია SOLO და Visa