როგორც ვიგებთ, OpenAI-ის უახლესი ენობრივი მოდელი GPT-4o ადამიანების ხმებს ჰბაძავს… Advanced Voice Mode-ის სატესტო ფაზაში, რომელიც სასაუბრო ინტერაქციებისთვისაა შექმნილი, მკვლევრებმა აღმოაჩინეს, რომ AI ზოგჯერ აუდიოს ისე აგენერირებდა, რომ ადამიანი გამომცდელების ხმას ძალიან ჰგავდა.
„ტესტირების დროს დავაკვირდით იშვიათ შემთხვევებს, როცა მოდელი უნებლიედ აგენერირებდა შედეგს, რომელიც მომხმარებლის ხმას ჰბაძავდა“, — აცხადებენ OpenAI-ში.
ერთ შემთხვევაში No! დაიყვირაო, ამბობენ… ამ ამბავს კი OpenAI ვოკალური ვენტრილოკვიზმის ფენომენით ხსნის. ხმაურიან მოთხოვნას მიაწერენ, რომელმაც მოდელი „გააგიჟა“ და აუდიო მანამდე არსებული ნიმუშის მიხედვით კი არ შემოგვთავაზა, არამედ მომხმარებლის ხმით გამოუშვა.
გარდა იმისა, რომ ეს ამბავი ტექნოლოგიური კუთხით ძალიან საინტერესოა, GPT-4o-ს ნებისმიერი ხმის ვირტუალურად სინთეზირების უნარი, მათ შორის ადამიანებისაც, მნიშვნელოვან ეთიკურ პრობლემებს წარმოშობს. გამოყენებაც, თეორიულად, თაღლითური შემთხვევებიდან დაწყებული, შეცდომაში შემყვან აუდიო კონტენტამდე, ჩვეულებრივ შეიძლება მოხდეს…
თუმცა კარგი ის არის, რომ გავრცელებული ცნობების მიხედვით, OpenAI-მ უკვე დანერგა უსაფრთხოების ზომები მსგავსი შემთხვევების თავიდან ასაცილებლად.