in

OpenAI „სუპერინტელექტუალი“ AI-ის საფრთხეებზე საუბრობს — რას აპირებს კომპანია?

ხელოვნური ინტელექტის მუდმივად მზარდი პოპულარობის გათვალისწინებით, ბუნებრივია, რომ ზოგი სკეპტიკურად უყურებს ტექნოლოგიას. ინდუსტრიის უმსხვილესმა პირებმაც კი, მათ შორის ილონ მასკმა და სტივ ვოზნიაკმა, მხარი დაუჭირეს ღია წერილს, რომელიც ალგორითმების უწყვეტ განვითარებას ეწინააღმდეგებოდა…

ამჟამად ინიციატივით თავად OpenAI გამოდის, რათა კომპანიის მთავარ მეცნიერებთან, ილია სუცვეკერთან ერთად უკეთესი დაცვა და კონტროლი შექმნან „ზეინტელექტუალური“ სისტემებისთვის. ვინაიდან ტექნოლოგიური სამყარო იმის მოლოდინშია, რომ რამდენიმე წელიწადში AI ადამიანურ გონებას გადააჭარბებს, მკვლევრებმა შესაბამისი გზების ძიება უნდა დაიწყონ, რათა მანქანათმცოდნეობის მოდელები „ბნელს მხარეში“ არ გადაეშვას.

„შესაძლოა, ხელოვნური ინტელექტის მზარდმა განვითარებამ კაცობრიობის დაქვეითება ან ადამიანის გადაშენებაც კი გამოიწვიოს. ამჟამად შესაბამისი გამოსავალი არ გვაქვს პოტენციური სუპერინტელექტუალური ხელოვნური ინტელექტის მართვისა და კონტროლისთვის; შესაბამისად, ვერც რეალურ საფრთხეებს ავირიდებთ თავიდან. ამჟამინდელი AI ადამიანურ ცოდნას ეყრდნობა, მაგრამ ჩვენზე ბევრად ჭკვიანი ალგორითმების საიმედო ზედამხედველობას ვერ მოვახერხებთ“, — განმარტავენ მკვლევრები.

ამ ყველაფრის საფუძველზე, OpenAI-მ გადაწყვიტა, Superalignment გუნდი შექმნას. ეს უკანასკნელი იმ გამოწვევის გადაჭრაზე იმუშავებს, თუ როგორ უნდა გაკონტროლონ სუპერინტელექტუალი ხელოვნური ინტელექტის ზრდა. ერთ-ერთი მეთოდი, რომელსაც შეისწავლიან, „ადამიანის დონის ავტომატური განლაგების მკვლევარია“ — მისი მთავარი მიზანი სისტემების ხალხის უკუკავშირის მიხედვით გაწრთვნა იქნება. „მოსალოდნელია, რომ დროთა განმავლობაში AI სისტემები თავად „დაფიქრდნენ“, დანერგონ, შეისწავლონ და განავითარონ უკეთესი ტექნიკები“.

როგორ შეგიძლია მოიგო რაგბის მსოფლიო ჩემპიონატის საგზური თიბისისა და MasterCard-ის გათამაშებით?

როგორ უნდა გამოყონ მენეჯერებმა დრო საკუთარი განვითარებისთვის?