მართალია, ხელოვნური ინტელექტის სისტემები ორგანიზაციებს საუკეთესო კანდიდატების სწრაფად პოვნაში, თანამშრომელთა განვითარებასა და ჩართულობაში ეხმარება, მაგრამ მას უამრავი გამოწვევაც ახლავს თან, რომელიც განსაკუთრებულ ყურადღებას საჭიროებს. ამიტომ, სანამ ლიდერები ამ ინსტრუმენტებს მიიღებენ, უნდა გაიგონ, თუ სად შეიძლება შესთავაზოს AI-მ მათ კომპანიას უპირატესობა და როგორ უნდა გაუმკლავდნენ ძირითად გამოწვევებს ე.წ. ნიჭის მენეჯმენტში ხელოვნური ინტელექტის დანერგვისას.
ნიჭის მენეჯმენტის სუსტი წერტილები და AI მოქმედებაში
ნიჭის მენეჯმენტს სამი მთავარი ფაზა აქვს: თანამშრომელთა მოზიდვა, განვითარება და შენარჩუნება. ხელოვნურ ინტელექტს კი თითოეული ფაზის სუსტ წერტილებს შეუძლია გაუმკლავდეს.
თანამშრომელთა მოზიდვა
სწორი თანამშრომლების პოვნის პროცესი შრომატევადი, არაეფექტური და მიკერძოებულიც კი შეიძლება იყოს. რეკრუტერები ქმნიან ვაკანსიებს, განიხილავენ რეზიუმეებს, გეგმავენ ინტერვიუებს, რასაც საკმაოდ ბევრი დრო მიაქვს და შეფერხებებსაც იწვევს. ეს უკანასკნელი კი საუკეთესო კანდიდატის დასაქმებაში გვიშლის ხელს. აქ AI-ს შეუძლია, უფრო ზუსტი ვაკანსიების შექმნაში დაგეხმაროთ, რომლებიც შესაბამისად იქნება რეკლამირებული კანდიდატებისთვის. მას შეუძლია, პერსპექტიული კანდიდატების იდენტიფიცირება და ასევე, გთავაზობთ პროცესებს, რომლებიც ადამიანურ მიკერძოებებს ამოწმებს.
თანამშრომელთა განვითარება
ნიჭის მართვისთვის თანამშრომლებისთვის სწავლისა და განვითარების შესაძლებლობების მიცემა უმთავრესი ელემენტია. აქ ყველაზე საყურადღებო საკითხი დასაქმებულთა მოტივაცია და მათთვის შესაბამის რესურსებზე წვდომის უზრუნველყოფაა. ხშირად კი თანამშრომლებს ამის შესახებ მწირი ინფორმაცია აქვთ, ხოლო ორგანიზაციებისთვის საჭირო კონტენტის შემუშავება წარმოადგენს გამოწვევას. ეს სივრცე კი სწორედ ის არის, სადაც ხელოვნურ ინტელექტს თქვენი დახმარება შეუძლია. მაგალითად, განვიხილოთ EdApp, AI-ზე დაფუძნებული სწავლის მართვის სისტემა — თანამშრომლებს შესრულებისა და ჩართულობის ანალიტიკაზე დაფუძნებით პერსონალიზებულ სასწავლო რეკომენდაციებს აწვდის, HR-ებს საშუალებას აძლევს, შექმნან მიკრო-სასწავლო კონტენტი წუთებში, თვალყური ადევნონ მოსწავლეთა პროგრესს და ანალიტიკური ინსაითების მიხედვით კონტენტსაც გადახედონ.
თანამშრომელთა შენარჩუნება
თუ Gallup-ის კვლევას დავუჯერებთ, გლობალურად თანამშრომელთა მხოლოდ 21% გრძნობს თავს ჩართულად სამსახურში. დამსაქმებლები ამის გასაუმჯობესებლად მრავალ ღონისძიებას ატარებენ, რადგან სურთ, თავიდან აირიდონ თანამშრომელთა გადაღლილობა და ხელი შეუწყონ მათ კეთილდღეობას. აქ კი შეგიძლიათ, ხელოვნური ინტელექტის სხვადასხვა ხელსაწყო ჩართულობის უკეთ გასაზომად გამოიყენოთ და მათი კეთილდღეობის რეკლამირებით თანამშრომლებზე ორიენტირებული გადაწყვეტილებები მიიღოთ. ამის მაგალითია Microsoft Viva + Glint, თანამშრომელთა გამოცდილების პლატფორმა, რომელიც ჩართულობისა და კეთილდღეობის შესაფასებლად დასაქმებულების განწყობების ანალიზსა და მონაცემებს აერთიანებს.
სად შეიძლება შეცდეს AI და როგორ შევამციროთ რისკები?
იმისათვის, რომ ნიჭის მართვისას ხელოვნური ინტელექტის სრული პოტენციალი გამოიყენონ, ლიდერებმა უნდა განიხილონ, რა გამოწვევები შეიძლება ახლდეს თან ხელოვნური ინტელექტის მიღებასა და განხორციელებას. ახლა კი განვიხილოთ ძირითადი გამოწვევები და მათი შემარბილებელი სტრატეგიები:
დაბალი ნდობა ხელოვნური ინტელექტის გადაწყვეტილებების მიმართ
ეს ფენომენი ალგორითმის ზიზღის სახელით არის ცნობილი. კვლევის თანახმად, ადამიანები ხშირად უნდობლობას უცხადებენ AI-ს, რადგან არ ესმით, როგორ მუშაობს ხელოვნური ინტელექტი, ის გადაწყვეტილების მიღებაზე კონტროლს ართმევს მათ, რის გამოც ალგორითმის გადაწყვეტილებებს არაპიროვნულად და რედუქციულად თვლიან. მართალია, კვლევის მიხედვით, AI მიკერძოებულ გადაწყვეტილებებს თავიდან გვაცილებს, მაგრამ მაინც, თანამშრომლები ალგორითმზე დაფუძნებულ HR გადაწყვეტილებებს ადამიანის გადაწყვეტილებაზე ნაკლებად სამართლიანად თვლიან.
რისკების შემცირების სტრატეგიები მოიცავს:
ალგორითმული ცოდნის გაძლიერება — მომხმარებლებს უნდა დაეხმაროთ, ისწავლონ, როგორ იმოქმედონ AI ინსტრუმენტებთან ერთად. ნიჭის მენეჯმენტის ხელმძღვანელებმა, რომლებიც გადაწყვეტილებების მისაღებად AI ინსტრუმენტებს იყენებენ, უნდა გაიარონ სტატისტიკური სწავლება, რომლებიც მათ საშუალებას მისცემს, დარწმუნებულები იყვნენ ალგორითმული რეკომენდაციების ინტერპრეტაციაში.
გადაწყვეტილების კონტროლის შესაძლებლობა — თუ კვლევას დავუჯერებთ, ადამიანები, რომლებსაც საბოლოო გადაწყვეტილებაზე აქვთ კონტროლი, მინიმალურ დონეზეც კი, ნაკლებ ზიზღს გამოხატავენ ალგორითმების მიმართ.
AI მიკერძოებები და ეთიკური შედეგები
მართალია, AI-ს გადაწყვეტილების მიღებისას მიკერძოებების შემცირება შეუძლია, მაგრამ ის მიკერძოებებისგან სრულად თავისუფალი მაინც არ არის. ისინი არსებული მონაცემების მიხედვით სწავლობენ, რაც, თავის მხრივ, ისტორიულ მიკერძოებებს შეიძლება მოიცავდეს. მაგალითად, ჩვენ გამოვცადეთ ხელოვნური ინტელექტის სისტემები, რომლებიც სამსახურში აყვანისას მამაკაცებს ანიჭებდნენ უპირატესობას ან ტაქსის მძღოლის პოზიციაზე ყოველთვის ფერადკანიან მოქალაქეებს განიხილავდნენ… ბუნებრივია, ამან ორგანიზაციული ეთიკური წესებისა და ღირებულებების რღვევა შეიძლება გამოიწვიოს, რაც საბოლოოდ ზიანს მიაყენებს თანამშრომელთა ჩართულობას, მორალსა და პროდუქტიულობას.
რისკების შემცირების სტრატეგიები მოიცავს:
AI-ში მიკერძოების იდენტიფიცირებისა და მოგვარების შიდა პროცესების შექმნა — ხელმძღვანელები სამართლიანობის კრიტერიუმების დაწესებისას ფრთხილად უნდა იყვნენ, განსაკუთრებით კი თანასწორობის საკითხებში. ამის გადასაჭრელად მათ ისეთი ცვლადები უნდა ჩართონ ალგორითმში, როგორებიცაა სქესი და რასა.
მრავალფეროვანი გუნდების შექმნა ხელოვნური ინტელექტის სისტემებისთვის — კვლევის თანახმად, რაც უფრო მრავალფეროვანია გუნდი, მით უფრო ნაკლებად მიკერძოებულია AI.
თანამშრომლების კონფიდენციალურობის ეროზია
ორგანიზაციები AI ტექნოლოგიებს რეალურ დროში თანამშრომლებზე დასაკვირვებლადაც იყენებს, მაგრამ თუ ამას არასწორად გააკეთებენ, შესაძლოა, კონფიდენციალურობის საკითხები მნიშვნელოვნად დაირღვეს. შესაძლოა, შედეგად, თანამშრომელთა დაღლილობა, სტრესი და დაზიანებული ფსიქიკური ჯანმრთელობაც კი მოგვცეს.
რისკების შემცირების სტრატეგიები მოიცავს:
იყავით გამჭვირვალე მიზნისა და ტექნოლოგიის გამოყენების შესახებ — Gartner-ის კვლევის მიხედვით, თანამშრომელთა რაოდენობა, რომლებიც კომფორტულად გრძნობს თავს დამსაქმებლის თვალყურის დევნების სისტემებთან, ბოლო ათწლეულის განმავლობაში 30%-დან 50%-მე გაიზარდა. ამის მიზეზი კი ის არის, რომ ხელმძღვანელები ღიად განიხილავდნენ, თუ რატომ იყენებდნენ ამ ინსტრუმენტებს.
გახადეთ თვალყურის დევნება ინფორმაციული და არა, შეფასებითი — თანამშრომლებისთვის მათზე თვალყურის დევნება უფრო კომფორტულია მაშინ, როცა ამას მხოლოდ ხელოვნური ინტელექტი აკეთებს. ეს მათ ინფორმაციული უკუკავშირის მიღებაში ეხმარება, შიშისა და ნეგატიური შეფასების გარეშე.
კანონიერი რისკების პოტენციალი
ამერიკის ადვოკატთა ასოციაციის თანახმად, დამსაქმებლებს შეიძლება დაეკისროს პასუხისმგებლობა, თუნდაც, უნებლიე დისკრიმინაციისთვის, რომელიც ხელოვნური ინტელექტის საფუძველზე შექმნილი სისტემებით ხორციელდება…
რისკების შემცირების სტრატეგიები მოიცავს:
AI-ს გამოყენების მარეგულირებელი მიმდინარე საკანონმდებლო ჩარჩოს გააზრება — მართალია, ჯერ ეს საკმაოდ ადრეულ ეტაპზეა, მაგრამ იგი ხელოვნური ინტელექტის ანგარიშვალდებულების, გამჭვირვალობისა და სამართლიანობის საკითხებზე ამახვილებს ყურადღებას. აქ შეგვიძლია ვისაუბროთ „AI ეროვნულ საინიციატივო აქტსა” (უკვე კანონზე) და 2022 წლის „ალგორითმული ანგარიშვალდებულების აქტზე”. ეს ეროვნული დონის ჩარჩოებია, რომლებიც ორგანიზაციებში ხელოვნური ინტელექტის გამოყენების რეგულირებისთვის არის შექმნილი. თუმცა ამ პროცესში სახელმწიფოებიც მნიშვნელოვნად ერთვება
რისკის მენეჯმენტის პროაქტიული პროგრამის ჩამოყალიბება — პოლიტიკური ლანდშაფტი, რომელიც არეგულირებს ხელოვნური ინტელექტის გამოყენებას პერსონალის მგრძნობიარე გადაწყვეტილებებისთვის, ჯერ კიდევ განვითარების გზას ადგას. თუმცა ორგანიზაციებმა მაინც უნდა აკონტროლონ მიმდინარე კანონმდებლობა და პროაქტიული რისკის მართვის პრაქტიკაც შექმნან, როგორიცაა, მაგალითად, ხელოვნური ინტელექტის სისტემების შექმნა მოდელის განვითარების პროცესის სხვადასხვა ეტაპის კონტროლისთვის.
თუ გავითვალისწინებთ იმ როლს, რომელსაც ნიჭის მენეჯმენტი კონკურენტუნარიანობის შენარჩუნებაში ასრულებს, ხელმძღვანელებმა პროაქტიულად უნდა განიხილონ, რა გავლენა შეიძლება ჰქონდეს AI ინსტრუმენტებს სუსტი წერტილების აღმოფხვრაში. თუმცა AI სისტემების დანერგვისას მნიშვნელოვანი გამოწვევებიც არსებობს, რომლებიც ხელმძღვანელებმა გონივრულად უნდა შეაფასონ და დაძლიონ.
წყარო: HBR