მეტამ ამჯერად კარი ღია კოდის ხელსაწყოებს გაუხსნა, რაც სოციალურ მედია პლატფორმებს პრობლემური სურათებისა და ვიდეოების დადგენაში დაეხმარება, მათ შორისაა ტერორისტული საფრთხეები და ბავშვთა სექსუალური შევიწროების საკითხებიც.
პროცესი კი ასეთი იქნება: როცა დაადგენენ, რომ სურათი ან ვიდეო კონტენტის პოლიტიკას არღვევს, მას HMA-ში გადაიტანენ, რის შემდეგაც პროგრამა ალგორითმს მისთვის უნიკალური „ჰეშის“ მისანიჭებლად გამოიყენებს. მომდევნო ეტაპზე კონტენტი ე. წ. ჰეშების მონაცემთა ბაზაში აისახება, რათა დააფიქსიროს ყველაფერი, რაც უკვე მონიშნულია. ხოლო, თუ ეს არსებული პოლიტიკის დამრღვევი პოსტი იქნება, ადმინისტრატორებს ძიების შედეგების ნახვა და მსგავსი პოსტების ავტომატურად წაშლა ან დაბლოკვა შეეძლებათ. თუმცა თითოეულ შემთხვევაში ისინი მაინც საჭიროებიდან გამომდინარე იმოქმედებენ.
Meta-ს თქმით, რაც უფრო მეტი კომპანია შეუერთდება ჰეშის მონაცემთა ბაზას, მით უკეთესი გახდება იგი… თანაც, თუ გავითვალისწინებთ, რომ ყველა კომპანიას არ აქვს შიდა ტექნოლოგია საკუთარი პროგრამის შესაქმნელად, ის ფაქტი, რომ მეტას HMA-ს ყველასთვის გაზიარების სურვილი აქვს, ნამდვილად დასაფასებელია.
საინტერესოა ისიც, რომ დეზინფორმაციის გავრცელების გამო მილიონობით ანგარიში იბლოკება — 2017 წლიდან დღემდე მეტამ საკუთარი ონლაინ სივრციდან 150 000-ზე მეტი მავნე ქსელი გააძევა. დღეს კი კომპანიები, რომლებიც ამბობენ, რომ არიან „პიონერები AI ტექნოლოგიის განვითარებაში, რაც სიძულვილის ენასთან დაპირისპირებას ემსახურება“, მნიშვნელოვან სტატისტიკურ მონაცემებს გვიზიარებენ: მოდერაციის სისტემით Facebook-ში სიძულვილის ენა ყოველ 10 000 ნახვაზე მხოლოდ ორჯერ იჩენს თავს. ეს უკანასკნელი კი, სამი წლის მონაცემებთან შედარებით, 10-11-ჯერ არის შემცირებული.