გენერაციული AI-ის რისკებს ორ ფაქტორზე დაყრდნობით ყოფენ: განზრახვა და გამოყენება. ასხვავებენ გენერაციული AI-ის შემთხვევით არასწორ გამოყენებას (განზრახვა). ასევე, გენერაციული AI ინსტრუმენტების გამოყენება დიფერენცირებულია იმ კონტენტის მოხმარებისგან, რომელიც შეიძლება სხვა მხარეებმა შექმნეს გენერირებული AI (გამოყენებით).
არაკეთილსინდისიერად გამოყენება (Misuse)
ეს გახლავთ, როდესაც გენერაციული AI-ის შესაძლებლობებს არაეთიკური, უკანონო ექსპლუატაციისთვის იყენებთ. ეს შეიძლება იყოს თაღლითობა, დეზინფორმაცია. როდესაც გენერაციული ხელოვნური ინტელექტის შესაძლებლობები გაუმჯობესდა, ცუდი მსახიობები იყენებდნენ მათ სხვადასხვა სახის კიბერშეტევებში. მაგალითად, გენერაციული ხელოვნური ინტელექტის გამოყენებით კონტენტის შექმნის შემცირებულმა ღირებულებამ გამოიწვია Deep Fake-ების მასობრივი მატება. ეს კი გამოიყენება დეზინფორმაციული შეტევებისთვის, თაღლითობისთვის, კიბერშეტევებისთვის, პერსონალური მონაცემების ქურდობისთვის და არჩევნების შედეგებით მანიპულირებისთვისაც კი.
არაზუსტი გამოყენება (Misapply)
გენერაციული AI-ის ერთ-ერთი ცნობილი პრობლემა ის არის, რომ ის პრიორიტეტს უფრო ანიჭებს სარწმუნოობას, ვიდრე სიზუსტეს. ამიტომ მას შეუძლია შექმნას არაზუსტი შედეგები. ეს მაშინ იქცევა პრობლემად, როდესაც მომხმარებლები არასწორად არიან დამოკიდებულნი მასზე ან არასწორად მიმართავენ AI ინსტრუმენტებს. მაგალითად, 2023 წლის ივნისში, რადიო წამყვანმა შტატ ჯორჯიაში სარჩელი შეიტანა OpenAI-ის წინააღმდეგ მას შემდეგ, რაც ChatGPT-მ არასწორად დააგენერირა ინფორმაცია, რომ მას ბრალი ედებოდა არაკომერციული ორგანიზაციის ხარჯების გაყალბებაში და თანხების გაფლანგვაში.
არასწორი წარმოდგენა (Misrepresent)
ეს კატეგორია ასახავს სიტუაციებს, როდესაც მესამე მხარის მიერ შექმნილი AI-ის შედეგი მიზანმიმართულად გამოიყენება და ვრცელდება, სანდოობის ან ავთენტურობის გადაუმოწმებლობის მიუხედავად. ბრენდული პროდუქტების პრობლემებზე უცნობი პირების მიერ შექმნილი Deep Fake კონტენტი რეგულარულად ვრცელდება სოციალურ მედიაში. კომპანიებს შესაძლოა მალე დასჭირდეთ მსგავს შემთხვევებთან გამკლავება. მაგალითად, ვიდეო, რომელიც აჩვენებს Tesla-ს ავტომანქანის ავარიას, ფართოდ გავრცელდა Reddit-ზე მარტში, სანამ დადასტურდებოდა, რომ ვიდეო იყო Deep Fake.
უბედური შემთხვევა (Misadventure)
ეს ნაწილი მოიცავს კონტენტს, რომელიც შეიძლება შემთხვევით მოიხმარონ და გაზიარონ მომხმარებლებმა, რომლებმაც არ იციან მისი არაავთენტურობის შესახებ. მაგალითად, როდესაც Twitter-ის რამდენიმე მომხმარებელმა გააზიარა პენტაგონში მომხდარი აფეთქების ყალბი ვიდეო, უოლ სტრიტზე აქციები დროებით დაეცა, რადგან ბევრი ვერ მიხვდა, რომ სურათი არ იყო ნამდვილი ფოტო. Deep Fake ხშირად გამოიყენება უსაფრთხოების პროტოკოლების გვერდის ავლით.
უზრუნველყავით ორგანიზაციული ფასეულობებისა და ხელოვნური ინტელექტის პრინციპების შესაბამისობა
გენერაციული AI გამოწვევების მოგვარება სცილდება უბრალო მენეჯმენტს და დადის ძირითადად ბიზნეს ღირებულებებამდე, ეთიკამდე. ორგანიზაციამ, რომელიც ვალდებულია დანერგოს ხელოვნური ინტელექტი, უნდა დაიწყოს AI-ს მკაფიო პრინციპებისა და გაიდლაინების ჩამოყალიბება ორგანიზაციაში AI-ის გამოყენებისთვის. ეს რომელიც მიზნად ისახავს უზრუნველყოს, რომ AI-ის გამოყენება არ გამოიწვევს რაიმე პიროვნულ ან სოციალურ ზიანს. შემდგომში, მკაფიოდ გამოხატეთ თქვენი ორგანიზაციის ღირებულებები და გახადეთ ისინი ხელმისაწვდომი ყველა თანამშრომლისთვის.
გამოიყენეთ Watermark გენერაციული AI-ით მუშაობისას
თუ კონტენტი გენერირდება ხელოვნური ინტელექტის სისტემის მიერ, ეს ფაქტი უნდა იყოს საჯაროდ ცნობილი და ჰქონდეს მკაფიო კომუნიკაცია. ასეთი მარკირება უზრუნველყოფს, რომ მომხმარებლებმა განასხვაონ AI და ადამიანის მიერ შექმნილი ნამუშევარი. ხელოვნური ინტელექტის გიგანტებმა, როგორიცაა OpenAI, Alphabet და Meta, უკვე ნებაყოფლობით აიღეს ვალდებულება, მოათავსონ თავიანთი ხელოვნური ინტელექტის მიერ გენერირებული კონტენტი, რათა დააცხრონ აშშ-ს მთავრობის შეშფოთება გენერაციული ხელოვნური ინტელექტის მიერ წარმოქმნილი საფრთხეების შესახებ.
წყარო: HBR