29
Jan
2020

AI პროექტის მართვა, მანქანური სწავლება და მონაცემები ინფლუენსერ მარკეტინგში – DataFest Tbilisi-ს მითაფების შეჯამება

29 Jan 2020

Alta
Alta


ალბათ გსმენიათ, რომ მონაცემები, იგივე „დატა“ ხდება მსოფლიოში ერთ-ერთი ყველაზე ძვირადღირებული პროდუქტი. კომპანიები, რომლებიც მონაცემებს ეფექტურად უყრიან თავს, სწორად ინახავენ და ამუშავებენ მათ – ყველაზე პერსპექტიული კომპანიები ხდებიან. ეს ვრცელდება როგორც ფინანსურ, ასევე სხვა მხარეებზეც – ის ვინც ფლობს მონაცემებს და შეუძლია მათი ანალიზი, შეუძლია საკუთარი მომხმარებლის მოთხოვნილებების „მოსმენა“, ანუ სერვისისა თუ პროდუქტის კომპანიისთვის მოგებიანად გაზრდაც.

სხვა მხრივ, ხაზგასასმელია მოსაზრება, რომლის მიხედვითაც მართალია, ტექნოლოგიური გიგანტები ჩვენგან პერსონალურ ინფორმაციას, ჩვენივე ნებით აგროვებენ და ამუშავებენ, ან თუნდაც, ყიდიან, თუმცა, ეს დიდი მოცულობის მონაცემები არ იძლევა კონკრეტული ადამიანის პერსონიფიცირების საშუალებას და არის ზოგადი სტატისტიკის ნაწილი. უნდა აღინიშნოს, რომ სტატისტიკის წარმოება და მასზე კონკრეტული გადაწყვეტილებების დაშენება როდია ერთადერთი სარგებელი, რომელიც თანამედროვე მსოფლიოსთვის მონაცემებს მოაქვს. ხელოვნური ინტელექტი არის ის, რაც დიდი მოცულობით მონაცემებზე შენდება და ვითარდება. პრინციპში, ეს შეიძლება იყოს არც ისე დიდი მონაცემები, რადგან დიდი მონაცემები პირობითი ცნებაა, ხელოვნური ინტელექტის ცალკეული მოდელის ან ალგორითმის, კონკრეტული მიზნისთვის მოსარგებად შეიძლება საკმარისი იყოს რამდენიმე ასეული ჩანაწერიც და არა მილიონობით ექსელის, ან სხვა ტექსტური ფაილი, რომელშიც შენახულია ათწლეულების ინფორმაცია.

ნებისმიერი ხელოვნური ინტელექტის ნებისმიერი მოდელი/ალგორითმი იმ მონაცემებზე დაყრდნობით იწვრთნება, რაც კონკრეტული მიზნის მისაღწევადაა საჭირო. სწორედ მონაცემების გამოყენების ამ ახალ და ზოგისთვის, შიშისმომგვრელ კომპონენტს – ხელოვნურ ინტელექტს დაეთმო DataFest Tbilisi-ს მითაფების სერია, რომელიც 2019 წლის განმავლობაში გრძელდებოდა. სტატიის ფარგლებში კი მოგიყვებით რამდენიმე მითაფის შესახებ, რომელიც მონაცემების საშუალებით ხელოვნური ინტელექტის მოდელებისა და ალგორითმების შექმნის პროცესს ეხებოდა.

DataFest Tbilisi სამი წლის წინ დაარსდა და მისი მიზანი სხვადასხვა პროფესიის ადამიანების მონაცემებით დაინტერესებაა. გარდა მასშტაბური ფესტივალისა, რომელიც წელიწადში ერთხელ ტარდება, ორგანიზატორები არაფორმალურ შეხვედრებს, ე.წ მითაფებსაც მართავენ. ამ სტატიაში მიმოვიხილავთ იმ მითაფებს, სადაც განხილული იყო მონაცემების საშუალებით კონკრეტული ბიზნესპროდუქტის შექმნის, დანერგვისა და ინტერპრეტაციის გზები.

მონაცემთა მნიშვნელობა ინფლუენსერ მარკეტინგში
შეხვედრა DataFest Tbilisi 2019-ის მთავარ ღონისძიებამდე გაიმართა. ეს იყო ოქტომბერში და მაშინ, ინფლუენს ჯორჯიას თანადამფუძნებელი და დირექტორი – გიორგი თუშურაშვილი გვესაუბრა მონაცემთა მნიშვნელობაზე ინფლუენსერ მარკეტინგში. შეხვედრის ფარგლებში გვითხრეს, თუ რა ტიპის მონაცემებს უნდა მივაქციოთ ყურადღება, თუ ინფლუენსერ მარკეტინგის მიმართულებით ვაპირებთ ბრენდის აქტივობის დაგეგმვას. რამდენიმე მათგანს აქაც გავუსვამთ ხაზს და ესენია – მიმდევრების რაოდენობა, ინფლუენსერის ინტერესი (სპორტი, ცეკვა, ჯანსაღი კვება თუ სხვა „თაგი“), ასაკის დისტრიბუცია და ა.შ. ეს უკანასკნელი განსაკუთრებულ მნიშვნელობას იძენს, მით უფრო მაშინ, როცა ინფლუენსერ მარკეტინგი, ძირითადად, ინსტაგრამზეა ორიენტირებული, თუმცა, სხვა ასაკობრივ კატეგორიაში – მაგალითად, ტინეიჯერებში სულ სხვა სოციალური ქსელი – TikTok არის პოპულარული.

გიორგი თუშურაშვილმა ინფლუენსერ ჯორჯიას პროექტებიც განიხილა, თუმცა ამ შემთხვევაში, გეგმებზე საუბარი უფრო მნიშვნელოვანი მგონია. კომპანია აპირებს შექმნას ინფლუენსერ მარკეტინგის საერთაშორისო პლატფორმა echolize.com, რომელიც ბრენდებს შესაბამისი ინფლუენსერების პოვნაში, სწორედ მონაცემებზე დაყრდნობით დაეხმარება. კომპანია აპირებს გახდეს ერთგვარი გზამკვლევი მსოფლიო ინფლუენსერ მარკეტინგში, მონაცემებისა და ხელოვნურ ინტელექტის დახმარებით.

როგორ ვმართოთ AI პროექტი
Datafest Tbilisi-ს მითაფების სერია დეკემბერში განახლდა. ამჯერად, AI პროექტის მართვის გზებზე ერეკლე მაღრაძე – MaxinAI-ს ინჟინერიის მიმართულების დირექტორი გვესაუბრა. მიუხედავად იმისა რომ დღეს, სიტყვათა შეთანხმება „ხელოვნური ინტელექტი“ – ნებისმიერ სფეროს მატებს ინტერესსა და აქტუალობას, აუცილებელია გვახსოვდეს, რომ ასეთი ტექნოლოგიები არ არის ზოგადი და ძირითად შემთხვევაში, ემსახურება მხოლოდ კერძო ამოცანის გადაჭრას. ხშირ შემთხვევაში ასეთი კერძო ამოცანა შეიძლება იყოს გადაწყვეტილების მიღების პროცესის ავტომატიზაცია, დიდი მოცულობის ვიზუალური და ტექსტური მონაცემების ავტომატური დამუშავება და აქედან ისეთი ინფორმაციის ამოღება, რომელიც ითვლება, რომ მხოლოდ ადამიანს ხელეწიფება. ამ ტიპის ამოცანების გადაჭრისთვის კი აუცილებელია, გვქონდეს სათანადო და ხარისხიანი მონაცემები, რომლებშიც ასახულია ყველა ის კანონზომიერება რომლის დადგენის მოლოდინიც გვექნებოდა ადამინისგან. შესაბამისად, მაგალითად, თუ გვინდა რომ შევქმნათ ხელოვნური ინტელექტზე დაფუძნებული ტექნოლოგია, რომელიც გამოყენებული იქნება სამედიცინო დიაგნოსტირებისთვის, საჭირო იქნება რომ წვდომა გვქონდეს შესაბამის სამედიცინო მონაცემებთან და არა სოციალური ქსელების საშუალებით შეგროვებულ ინფორმაციასთან, რომელიც უფრო ინფლუენსერ მარკეტინგისთვისაა გამოსადეგი.

ერეკლესთან შეხვედრის დროს ცხადი გახდა, რომ თუ ვგეგმავთ პროექტის დაწყებას ხელოვნური ინტელექტის ტექნოლოგიის შესაქმნელად, ან გამოყენებისთვის, აუცილებელია: ა) ვიცოდეთ კონკრეტული, რაც შეიძლება კარგად დაზუსტებული მიზანი, რომელიც დაკავშირებულია ერთი კონკრეტული ამოცანის გადაჭრასთან; ბ) გვქონდეს ამოცანის გადასაჭრელად, შესაბამისად მიზნის მისაღწევად საჭირო მონაცემები, რომელიც შეიძლება უკვე ჩვენს ხელთ იყოს, ან საჭირო იყოს მათი მოგროვება; გ) გვყავდეს მონაცემთა ინჟინრები, ვინც უნდა მოაწესრიგოს მონაცემები და მიიყვანოს იმ მდგომარეობამდე, რომ შევძლოთ მათი ხელოვნური ინტელექტის მოდელის შესაქმნელად გამოყენება; და დ) გვყავდეს მონაცემთა მეცნიერები, რომლებიც შეარჩევენ ამოცანის გადასაჭრელად აუცილებელ მოდელს, ალგორითმს ან ასეთების ერთობლიობას და გაწვრთნიან მონაცემთა ინჟინრების მიერ დამუშავებულ მონაცემებზე დაყრდნობით.

ეს უკანასკნელი, როგორც წესი, არ არის ხოლმე მოკლევადიანი პროცესი და საჭიროებს დიდ მოთმიენებას, რათა სათანადოდ იყოს გადამოწმებული ყველა შესაძლო მოდელი და მიდგომა. თუმცა, მიუხედავად მონაცემთა მეცნიერების მცდელობისა, მაინც შეიძლება მოგვიწიოს მონაცემთა ინჟინრებთან დაბრუნება და არსებული ნედლი მონაცემების სხვაგვარად სტრუქტურიზება. მონაცემთა სტრუქტურიზება და მოწესრიგება, პირველ რიგში, გულისხმობს სხვადასხვა ათვლის სისტემაში (მაგალითად თუ მანძილი გაზომილია იარდებში და მეტრებში), სხვადასხვა ენაზე, სხვადასხვა განზომილებებში (მაგალითად წონა მოწოდებულია კილოგრამებში და ტონებში) მოწოდებული ინფორმაციის ერთ ენაზე, ერთ შკალაზე და ერთ განზომილებაზე დაყვანას.

შემდეგ კი იწყება არაპროგნოზირებადი პროცესი – მოდელის გაწვრთნა, მონაცემების დამატება, მონაცემების ამოკლება, არსებული მონაცემებიდან ახალი მონაცემების შექმნა და სხვა მრავალი პროცედურა მანამ, სანამ მონაცემებისა და მოდელის „ურთიერთობა“ სასურველ შედეგამდე არ მივა. ანუ სანამ არ მივიღებთ საკმარისად ზოგად მოდელს, რომელიც მუშაობს პროექტის მიზნიდან გამომდინარე, მისაღები სიზუსტით.

ინტერპრეტირებადი მანქანური სწავლება
Datafest Tbilisi-ს მიერ ორგანიზებული შეხვედრების სერიის ბოლო შეხვედრა დეკემბრის ბოლოს იყო. აქ MaxinAI-ს ML (Machine Learning) ინჟინერმა და მონაცემთა მეცნიერმა – ანზორ გოზალიშვილმა მანქანური სწავლების რამდენიმე მოდელი წარმოგვიდგინა. მან ისაუბრა ინტერპრეტირებადობის, ანუ მანქანური სწავლების მოდელების სწორად აღქმის და გაანალიზების პრობლემაზე. შეხვედრის განმავლობაში, ანზორმა ისაუბრა მანქანური სწავლების წინასწარ გაწვრთნილი მოდელებით (ე.წ. „შავი ყუთებით“) მიღებული შედეგების ინტერპრეტირებადობის პრობლემებზე და წარმოადგინა მიდგომები, თუ როგორ შეიძლება ასეთ შემთვევებში ამ „შავი ყუთების“ ფუნქციონირების ნიუანსებს მოეფინოს ნათელი. შეხვედრაზე ხაზი გაესვა იმას, რომ „შავი ყუთის“ ინტერპრეტაციის ალგორითმის სწორად შესარჩევად საჭიროა ვიცოდეთ გამოყენებული მონაცემების ტიპი და ამოცანის მიზანი.

შეგვიძლია ვთქვათ, რომ შეხვედრების სახით აუდიტორიამ ის გზები გაიარა, რომელსაც მანქანური სწავლების მოდელი ხელოვნური ინტელექტის ტექნოლოგიის სტატუსის მიღებამდე გადის. მიზანი, მონაცემები, მოდელის შერჩევა, გაწვრთნა და ინტერპრეტირება. დღეისათვის, AI, ალბათ ყველაზე რთული და ამავდროულად, პერსპექტიული მიმართულებაა, რომელიც მონაცემებზე და მონაცემთა მეცნიერების მეთოდების საშუალებით მიღებულ ინფორმაციაზე დგას. მისი ერთ-ერთი მთავარი მიზანი მომავალი ქცევის, გადაწყვეტილების, მოვლენის და კიდევ უამრავი პროცესის წინასწარმეტყველებაა. მაგალითად, იმის გამოთვლა, გვემუქრება, თუ არა ნაადრევი სიკვდილი. მომავლის განჭვრეტა კაცობრიობის ყველა დროის ყველაზე საინტერესო სურვილია. ტექნოლოგიებს, უფრო კონკრეტულად კი დიდი მოცულობის მონაცემებს + ალგორითმებს, ამ სურვილის ასრულებასთან სულ უფრო ახლოს მივყავართ.

განხილვა