პოლიტიკა

რა საფრთხეებსა და ბენეფიტებს შეიცავს ხელოვნური ინტელექტის გამოყენება ადამიანებისა და სახელმწიფოებისთვის

№19

ავტორი: ნინო ხაჩიძე 18:00 17.05, 2023 წელი

ოთარ ხუციშვილი
დაკოპირებულია

ჯერ კიდევ რამდენიმე წლის წინ გახდა ცნობილი, რომ ხელოვნურმა ინტელექტმა, ანუ ორმა პროგრამამ, შექმნა ერთმანეთთან სასაუბრო ენა, რომელიც პროგრამის შემქმნელებმა ვერ გაშიფრეს. ცხადია, პროგრამები წაშალეს, მაგრამ ფაქტი მაინც ფაქტად დარჩა. ხოლო სულ ახლახან „გუგლის“ აღმასრულებელმა დირექტორმა განაცხადა, რომ აკვირდებიან მათი ახალი პროგრამის ანუ ხელოვნური ინტელექტის მოქმედებას, რომელმაც თავად შექმნა ყალბი წყაროები: მონოგრაფიები და სახელმძღვანელოები და მათგან მოტანილი ციტატებით, ანუ ყალბი წყაროებით დაიწყო რეკომენდაციების გაცემა. ბუნებრივია, ეს მისთვის არავის უსწავლებია, ანუ შესაბამისად არ დაუპროგრამებიათ. მეორე მხრივ, ისიც ცხადია, რომ ხელოვნურ ინტელექტს აქვს თავისი უპირობო უპირატესობები: სწრაფია, არ სჭირდება კომფორტი, უფლებების დაცვა, სამუშაო პირობების შექმნა, ხელფასის გადახდა და ასე შემდეგ, მაგრამ, როგორც ვხედავთ, საფრთხის შემცველიცაა, იმიტომ რომ თვითგანვითარების შესაძლებლობა აქვს, რაც ადამიანის კონტროლს არ ექვემდებარება. სწორედ ამ საკითხს განვიხილავთ CASE-ის ტექნიკური მიმართულე-ბის ხელმძღვანელთან, ოთარ ხუციშვილთან.

– მე, მაგალითად, დღემდე არ მესმის და მაშინაც ვსვამდი ამ კითხვას, თუ რატომ არ დაამუშავებინეს კოვიდპანდემიისას დაავადებულთა ისტორიები ხელოვნურ ინტელექტს და ამის შემდეგ – არც აცრების დადებითი თუ უარყოფითი შედეგი. ჩვენ კი საუბარი დავიწყოთ იმით, რა ეტაპზეა დღეს ხელოვნური ინტელექტის განვითარება, ანუ პროგრამის, ალგორითმის, ამას ვაზუსტებ, ვინაიდან ხანდახან ხელოვნური ინტელექტი წარმოუდგენიათ, როგორც მექანიკური კონსტრუქცია. თან, დღევანდელ მსოფლიოში, ყალბი და ნაღდი ადამიანებიც რომ ვერ გაგვირჩევია, სრული ბედნიერებისთვის, ხელოვნური ინტელექტიღა გვაკლდა, თავისი ტყუილებით.

– მთავარი მომენტი, რითაც ხელოვნური ინტელექტი განსხვავდება ჩვეულებრივი პროგრამისგან, ალგორითმისგან, არის ის, რომ, თუ ჩვეულებრივ პროგრამას ჩვენ პირდაპირ ვაძლევთ დავალებას და ამის მიხედვით ფუნქციონირებს, ხელოვნური ინტელექტის შემთხვევაში მექანიზმი ასეთია: წინასწარ შემუშავდება ისეთი ალგორითმი, რომელიც იმისდა მიხედვით, თუ რა კონკრეტულ ინფორმაციას მივაწოდებთ, თავად წყვეტს, მოქმედების რა გზა აირჩიოს.

– ანუ ხელოვნური ინტელექტი, როგორც პროგრამა, თავად იღებს გადაწყვეტილებას, ჩვეულებრივი ალგორითმისგან განსხვავებით.

– დიახ, მის მუშაობაში მთავარია ის, რომ თავად გააანალიზოს მიწოდებული ინფორმაცია და დამოუკიდებლად მიიღოს გადაწყვეტილებები.

– სანდო არ არის ადამიანის ტვინიც. შესაბამისად, ჩნდება კითხვა: რამდენად სანდოა ხელოვნური ინტელექტის მიერ მიღებული გადაწყვეტილება?

– 100 პროცენტით სანდო არ არის, ისევე, როგორც, რაოდენ მაღალი დონის სპეციალისტიც უნდა იყოს ადამიანი, ვერც მისი დასკვნა იქნება 100-პროცენტიანად სანდო. მაგრამ შედგენილია სტატისტიკური მეთოდები, რომლებიც ადგენენ ნებისმიერი ალგორითმის სანდოობის ხარისხს. ეს მაჩვენებელი, ბუნებრივია, 100 პროცენტი არ არის, მაგრამ, ყოველ შემთხვევაში, იმ დონემდე მაინც არის მისული, რომ ამ ალგორითმის მიერ დადებულ შედეგებს რაღაც დონემდე ვენდოთ, იმდენად მაინც, რომ ხელოვნური ალგორითმისა და იმ დარგის სპეციალისტის მიერ დადებული დასკვნა თანაბარი სანდოობის იყოს. ამ მხრივ, გასათვალისწინებელია, თუ რამდენად სწორად შეირჩევა ინფორმაცია, რომელიც უნდა დაამუშაოს ალგორითმმა.

– დიახ, ეს მთავარია გადაწყვეტილებების მიღებისას ადამიანის შემთხვევაშიც.

– დიახ, ასეთი პროგრამების წარმატების ერთ-ერთი მთავარი გასაღები სწორედ ესაა. შესაბამისად, იმ კომპანიების, რომლებიც ამ ალგორითმზე მუშაობენ, მთავარი სამიზნე არის ინფორმაციის წყაროები და ის, რომ ეს ინფორმაცია იყოს, რაც შეიძლება, მოცულობითი. რაც მეტი ქეისი დამუშავდება, სიზუსტის მაჩვენებელიც უფრო მაღალი იქნება. მეორე მომენტია ის, რომ ეს წყაროები იყოს ავთენტიკური. ადამიანი თუ განზრახ არ ცდილობს, პროგრამა გამოიყენოს პროპაგანდისთვის და დააშვებინოს შეცდომა, სანდოობა იქნება მაღალი. შესაბამისად, მაქსიმალურად მუშაობენ იმაზე, რომ ალგორითმისთვის მიწოდებული ინფორმაცია იყოს ავთენტური.

– რამდენად შორს შეიძლება, წავიდეს ხელოვნური ინტელექტის შესაძლებლობები, რომ გააცუროს ადამიანი?

– თუ ალგოროთმის შესაძლებლობების ზედა ზღვარი ახლავე არ შეიზღუდა, ამის პროგნოზირება ძალიან რთული იქნება. მთავარი მიზანია, რომ ამ პროგრამებმა შეძლონ ნებისმიერი სირთულის ამოცანის გადაჭრა, მაგრამ არის რამდენიმე მომენტი: მაგალითად, რამდენად დაცული იქნება პირადი ინფორმაცია, ანუ ხომ არ აქვს საშუალება ამ პროგრამებს, რომ გაავრცელონ ადამიანების პერსონალური ინფორმაცია, რაც დაარღვევს ადამიანის უფლებებს?! მაინცდამაინც სასურველი არ იქნება, თუ ჩვენი პირადი ინფორმაცია აღმოჩნდება ხელოვნური ინტელექტის ხელში. ეს დიდი რისკია და გასათვალისწინებელია. ადამიანები, რომლებსაც ეს ესმით ეს პრობლემა, აქტიურადაც მუშაობენ ამ მიმართულებით. ხელოვნური ინტელექტის მოდელს ძალიან ბევრი ბენეფიტის მოტანა შეუძლია მეცნიერების ამა თუ იმ კონკრეტულ სფეროში. თქვენც ახსენეთ კორონაპანდემიის პერიოდი და, მართლაც, ხელოვნურ ინტელექტს აქვს საშუალება, რომ დაამუშაოს უზომოდ დიდი რაოდენობის ინფორმაცია და გარკვეული მოდელები შეიმუშაოს. მაშინ, როდესაც იმავე მოცულობის სამუშაოს ადამიანის მიერ დამუშავება უკავშირდება ძალიან დიდ რესურსს, მათ შორის, დროს. ამ მხრივ, ხელოვნურ ინტელექტს აქვს საშუალება, ზღვა ინფორმაცია დაამუშაოს და გარკვეული პროცენტით, ავთენტიკური პასუხები და პროგნოზები დააბრუნოს, რაც, საბოლოოდ, ისევ ჩვენს კეთილდღეობას მოხმარდება. ამასთან, გადავხედოთ კაცობრიობის ისტორიას: ნებისმიერ ტექნოლოგიურ სიახლეს ნებისმიერ ეპოქაში ყოველთვის მოჰქონდა გარკვეული ბენეფიტები და პრობლემებიც და შეიცავდა დიდ საფრთხესაც. ამდენად, ცალსახად ვერ ვიტყვით, რომ ხელოვნური ინტელექტი ცუდია და საშიში და ამ სფეროს განვითარება უნდა შეწყდეს, მაგრამ ისიცაა გასათვალისწინებელი, რომ, თუმცა გარკვეულ სფეროებში ხელოვნური ინტელექტი დიდ ბენეფიტს გვაძლევს, უნდა შეიქმნას დამცავი მექანიზმებიც. სწორედ ამის გამოა შეჩერებული მსგავსი პროგრამების განვითარებაზე მუშაობა და ზოგიერთ ქვეყანაში აკრძალულიც კია. უნდა შეიქმნას შესაბამისი პოლიტიკა, რის მიხედვითაც დაწესდება გარკვეული შეზღუდვები და ეს სფერო დაექვემდებარება რეგულაციებს. თუ არსებობს პროგრამა, რომელიც აგროვებს ინფორმაციას, აანალიზებს და გამოაქვს დასკვნები, უნდა არსებობდეს ამის საპირისპირო პროგრამაც, რომელიც ამ ყველაფერს გააკონტროლებს, იმიტომ რომ პირადი ინფორმაციის გაჟონვა საფრთხეა არა მხოლოდ ადამიანისთვის, არამედ ქვეყნისთვისაც. იმიტომ რომ ინფორმაცია მოქმედებს როგორც კონკრეტული ადამიანის, ისე ქვეყნის ბედზეც.

– თან, ხელოვნურ ინტელექტს ვერც სასჯელით მოთოკავ და ვერც ვერაფრით შეაშინებ, ძალიანაც რომ მოინდომო.

– ისეთი გზაა საპოვნელი, რომ ან შეიზღუდოს ინფორმაცია, რაც მიეწოდება ალგორითმს, რომ არ მოხდეს ამ ინფორმაციის ბოროტად გამოყენება და თუ მაინც ბოროტად გამოიყენებს, ალგორითმი წაიშლება.

– მაგრამ ხელოვნურ ინტელექტს ეს არც კი ეწყინება და ვერც დანარჩენი ხელოვნური ინტელექტებისთვის ექნება მაგალითის ძალა. „გუგლის“ ახალ პროგრამას მსოფლიო ბატონობის სურვილები აქვსო, ასე ამბობს „გუგლის“ გენერალური დირექტორი და ვერაა ეს მთლად სასიამოვნო ამბავი.

– თეორიულად, მომავალში რაღაც დონეზე შეიძლება, დადგეს ასეთი პრობლემა, იმ ტემპის გათვალისწინებით, როგორც ვითარდება ეს ტექნოლოგიები. მეც შემხვედრია მსგავსი კონტენტი, მაგრამ ეს უფრო ვარაუდია, იმიტომ რომ კონკრეტულად ასეთი პროგნოზის გაკეთება, შეუძლებელია. ისტორიიდან მახსენდება, ნახევრად ხუმრობით, რომ შუა საუკუნეებში ევროპაში მსჯელობდნენ იმაზე, რომ, თუ ამ ტემპით გაგრძელდება მსოფლიოში ადამიანების გამრავლება, ცოტა ხანში იმდენი შინაური ცხოველი დაგვჭირდება, რომ მათი შესანახი საშუალება არ იქნებაო. პროგრესის ტემპი დღეს იმდენად დიდია, რომ შეიძლება, რამდენიმე დღეში შეიცვალოს სიტუაცია, ამდენად, ძალიან ძნელია, დღეს ივარაუდო, რა მოხდება არათუ 100, 10 წლის შემდეგაც კი. ამდენად, ნებისმიერ ადამიანს ვურჩევდი, რომ ასე ცალსახად გამოგონილ პროგნოზებს არ ავყვეთ, პროცესებს მივყვეთ რაციონალურად, ლოგიკურად. ამასთან, ნებისმიერ თემასა და დარგში მარტივი პრინციპია, თუ პირობითად არსებობს „ა“ ობიექტი, არსებობს „ბ“ ობიექტიც, რომელიც იქნება მისი ანტაგონისტი, რაც ერთობლივი მუშაობის შემთხვევაში უკეთეს პროდუქტს შექმნის.

სიახლეები ამავე კატეგორიიდან

ახალი ნომერი - №16

15-21 აპრილი

კვირის ყველაზე კითხვადი

კვირის ასტროლოგიური
პროგნოზი

კვირის დღეების ასტროპროგნოზი