Magdalena Posted December 25, 2018 Share Posted December 25, 2018 Microsoft Research-ისა და მერილენდის უნივერსიტეტის მეცნიერებმა ისაუბრეს ალგორითმის შესახებ, რომელსაც შეუძლია გამოავლინოს შეურაცხმყოფელი განაცხადები, რომლებიც ძირითადად დაკავშირებულია გენდერთან და რასასთან. მკვლევარების სამუშაო დაფუძნებულია კალიფორნიის უნივერსიტეტის კვლევებზე, რომელშიც დეტალურადაა აღწერილი საშუალება, რომელსაც შეუძლია შეინახოს გენდერული ინფორმაცია სალექსიკონო სექტორებში და აიძულოს სხვა ასპექტები - თავისუფალნი იყვნენ გენდერული გავლენისგან. „უამრავი მიზეზი არსებობს ამგვარი ალგორითმის გამოსაყენებლად. პირველ რიგში, მისი გამოყენება შეუძლიათ სოციოლოგებს ადამიანის ტენდენციურობის და წინასწარი განწყობის კვლევებისას. ეს ხელს შეუწყობს თავიდან ავირიდოთ ტენდენციურობის გამოვლინება მთელ რიგ სისტემებში, სანამ ისინი ფართო საზოგადოებისთვის ხელმისაწვდომი გახდება“. „შეუძლებელია ხელით დაიწეროს ყველა შესაძლო ტესტი, რათა შემოწმდეს მასალების ნეიტრალურობა რომელიც განკუთვნილია მანქანური სწავლებისთვის. სპეციალისტები, როგორც წესი, ქმნიან იმგვარ ტესტებს, რაც მოიცავს ყველა შესაძლო ჯგუფს. ეს ხდება განსაკუთრებით იმ შემთხვევაში, თუ მათთვის უცნობია რა კატეგორიის ჯგუფებისთვისაა გამიზნული კონკრეტული პროდუქტი“ - აღნიშნავენ მკვლევარები. სისტემის ტესტირებისთვის მეცნიერებმა სოციალური უზრუნველყოფის ადმინისტრაციის მონაცემთა ბაზიდან ამოიღეს სიტყვათა ნაკრები და სცადეს მათგან მოეშორებინათ ის სიტყვები, რომელთაც ორმაგი მნიშვნელობა აქვთ. მას შემდეგ, რაც ხელოვნურმა ინტელექტმა შეამოწმა მატერიალის ნეიტრალურობა, მისი გადახედვა მოხდა ხელმეორედ, ამჯერად უკვე ადამიანების მიერ. აღმოჩნდა, რომ ალგორთთმა ვერ შეძლო განესაზღვრა იმ გამოთქმათა 90%-ზე მეტი, რომელთა კონტექსტიც ბუნდოვანი იყო და შეიცავდა შეურაცხმყოფელ გამოთქმებს. https://hightech.fm/2018/12/23/ai-learning 1 Quote Link to comment Share on other sites More sharing options...
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.