სოციალურ ქსელში Facebook-მომხმარებელი Irakli Zakareishvili, რომლის გავრცელებული ყალბი ამბავი „ფაქტ-მეტრს“ არაერთხელ გადაუმოწმებია (1, 2, 3), ისრაელ-ჰამასის ომთან დაკავშირებით ინფორმაციას ავრცელებს. ავტორის მტკიცებით, ისრაელი მშვიდობიანი მოსახლეობის დაბომბვისას ხელოვნური ინტელექტის პროგრამას, სახელად „სახარება“-ს, იყენებს, რომლითაც ღაზაში იმ შენობების ლოკაციებს ადგენს, „სადაც მოსახლეობის მაქსიმალური რაოდენობაა თავმოყრილი“. პოსტი ქმნის შთაბეჭდილებას, თითქოს აღნიშნული ინფორმაცია The Guardian-ის სტატიიდან „ციტატის“ სახითაა ამოღებული.

რეალურად, გამოცემის მიერ გამოქვეყნებული სტატია სისტემა „სახარების“ განხილვას მართლაც ეძღვნება, თუმცა მასში ისრაელის მიერ მშვიდობიანი მოსახლეობის ხელოვნური ინტელექტის მეშვეობით განზრახ დაბომბვის შესახებ არაფერია ნათქვამი. სტატიაში მართლაცაა საუბარი რისკებზე, რასაც AI-ით შექმნილი სისტემაზე დაყრდნობით განხორციელებული თავდასხმები შეიძლება ქმნიდეს, თუმცა ისრაელის მხრიდან მშვიდობიანი მოქალაქეების განზრახ დამიზნებაზე არაფერი წერია. გარდა ამისა, სტატიაში ისრაელის თავდაცვის ძალების განცხადებებია მოცემული, რომლის თანახმად, AI-ით შექმნილი სისტემა თავდასხმისას, სამოქალაქო მოსახლეობიდან მსხვერპლს პირიქით ამცირებს.

Facebook-მომხმარებლის მიერ წყაროდ წარმოდგენილი The Guardian-ის სტატია ღაზაში მიმდინარე ომში ისრაელის მიერ ხელოვნური ინტელექტის გამოყენებით შექმნილი სისტემის (სახელწოდებით „სახარება“) გამოყენებაზე საუბრობს. ანალიზი დაზვერვის სამსახურის წყაროებს, ისრაელის თავდაცვის ძალების (IDF) ცალკეულ და IDF-ის ყოფილი წარმომადგენლების განცხადებებს ეყრდნობა.

სტატიის თანახმად, ღაზაში მიმდინარე ადრეულ ოპერაციებში ისრაელის საჰაერო ძალებს ხშირად ეწურებათ სამიზნეები. ასევე ხშირი იყო შემთხვევა, როცა ახალი შეტევის დაწყებისას, „ჰამასის“ მაღალი რანგის ოფიცრები გვირაბებში უჩინარდებოდნენ. ისრაელის თავდაცვის ძალების ამ პრობლემის გადასაჭრელად სამიზნე დივიზია („target division“) შეიქმნა. ხელოვნურ ინტელექტზე დაფუძნებული სისტემის „სახარება“ („Habsora“, ინგლისურად „the Gospel“) დახმარებით, სამიზნე დივიზიამ 30 000-დან 40 000-მდე ეჭვმიტანილი მებრძოლის მონაცემთა ბაზის შექმნა შეძლო.

სისტემა სხვადასხვა წყაროებიდან მოპოვებულ დიდი მოცულობის ინფორმაციას (დრონის კადრები, სამეთვალყურეო ჩანაწერები, ინდივიდისა და ჯგუფების გადაადგილებისა და ქცევის მონიტორინგის შედეგად მოპოვებული ინფორმაცია) აანალიზებს და მათზე დაყრდნობით, შეტევის ობიექტებს გამოყოფს. ისრაელის თავდაცვის ძალების ყოფილი ხელმძღვანელის, ავივ კოჩავის განცხადებით, წარსულში IDF-ს წელიწადში 50 სამიზნის გამოყოფა შეეძლო, ხოლო ხელოვნურ ინტელექტზე დაფუძნებული სისტემის შემოღებამ ეს რიცხვი დღეში 100-მდე გაზარდა.

ისრაელის თავდაცვის ძალების მიერ გაკეთებულ მოკლე განცხადებაში აღნიშნულია, რომ ინსტრუმენტი ჰამასთან დაკავშირებულ ინფრასტრუქტურაზე ზუსტი თავდასხმის წარმოების შესაძლებლობას იძლევა, დიდ ზიანს აყენებს მტერს და მინიმალურს - არამებრძოლებს. ისრაელის ყოფილმა სამხედრო მაღალჩინოსანმა Guardian-თან განაცხადა, რომ ოპერატიული ძალის მიერ სამოქალაქო მოსახლეობის ევაკუაციის მაჩვენებლის ზუსტი გაზომვა ხდება. გარდა ამისა, შეტევამდე ცოტა ხნით ადრე ისინი იყენებენ ალგორითმს, რომელიც დარჩენილი მშვიდობიანი მოქალაქეების რაოდენობას ადგენს. საბოლოოდ, ალგორითმი იძლევა მწვანე, ყვითელ, წითელ ნიშანს, მსგავსად საგზაო შუქნიშნისა.

სტატიის თანახმად, სისტემასთან დაკავშირებით ექსპერტებს განსხვავებული მოსაზრებები აქვთ. თუ სამხედრო სფეროს წარმომადგენლები დადებითად აფასებენ პლატფორმის მუშაობას, ხელოვნური ინტელექტისა და საერთაშორისო ჰუმანიტარული სამართლის ექსპერტები ინსტრუმენტთან დაკავშირებით შეშფოთებას გამოთქვამენ. მაგალითად, სტოკჰოლმის მშვიდობის საერთაშორისო ინსტიტუტის მკვლევარი, დოქტორი მარტა ბო აღნიშნავს, რომ მსგავსი სისტემების მუშაობისას ყოველთვის არსებობს შეფასების სისტემური შეცდომის რისკი და ზედმეტად დაყრდნობა ამ სისტემაზე გადაწყვეტილების მიმღებ პირებზე დიდ გავლენას ახდენს.

რიჩარდ მოიესი, Article 36- ის (იარაღისგან მიყენებული ზიანის შემცირებაზე ორიენტირებული სპეციალიზებული არაკომერციული ორგანიზაცია) დირექტორი, აცხადებს, რომ მსგავსი სისტემით მუშაობისას მეთაურს კომპიუტერის მიერ გენერირებული სამიზნეთა სია გადაეცემა, ამ დროს მეთაურმა არ იცის თუ როგორ შეიქმნა ეს სია და არ აქვს შესაძლებლობა საფუძვლიანად გამოიკვლიოს სისტემისგან მიღებული რეკომენდაციები, რაც სახიფათოა. მისი მტკიცებით, მსგავს სისტემებზე დაყრდნობისას ადამიანები მექანიზებული პროცესის ნაწილი ხდებიან და ვერ ახერხებენ სამოქალაქო ზიანის გათვლას. სამიზნე დივიზიის ყოფილმა თანამშრომელმა The Guardian-თან საუბრისას ასევე აღნიშნა, რომ სამიზნეები ავტომატურად განისაზღვრება და თანამშრომლები სისტემის მიერ გენერირებულ სიას მიყვებიან, ისინი სწრაფად მუშაობენ და არ არის დრო სამიზნეთა სიის და მასში არსებული კონკრეტული ინდივიდების გამოკვლევისთვის.

მიუხედავად აღნიშნული ექსპერტების კომენტარებისა, სტატიაში არსადაა ნათქვამი, რომ ისრაელი ხელოვნურ ინტელექტზე დაყრდნობით შექმნილ სისტემას მშვიდობიან მოსახლეობაზე თავდასხმისთვის განზრახ იყენებს.

ამრიგად, Facebook-მომხმარებლის მიერ გავრცელებული ინფორმაცია მცდარია და პოსტში მოცემული ციტირება The Guardian-ის სტატიას არ ეკუთვნის.

--------------------------------------------------------------------------

სტატია Facebook-ის ფაქტების გადამოწმების პროგრამის ფარგლებში მომზადდა. ვერდიქტიდან გამომდინარე, Facebook-მა შესაძლოა სხვადასხვა შეზღუდვა აამოქმედოს - შესაბამისი ინფორმაცია იხილეთ ამ ბმულზე. მასალის შესწორებისა და ვერდიქტის გასაჩივრების შესახებ ინფორმაცია იხილეთ ამ ბმულზე.


მსგავსი სიახლეები

5429 - გადამოწმებული ფაქტი
გაზეთი ფაქტ-მეტრი
26%
სიმართლე
17%
ტყუილი
11%
მეტწილად სიმართლე
10%
ნახევრად სიმართლე
7%

ყველაზე კითხვადი