მარიამი პროექტების მენეჯერი, ფორბსის ბლოგერი და კონტრიბუტორია. მისი კვლევითი ინტერესებია მდგარდი ეკონომიკური განვითარება, სტრატეგიული მენეჯმენტი, ხელოვნური ინტელექტი, ტექნოლოგიური და ინოვაციური პროდუქტების მართვა საჯარო და კორპორატიულ დონეზე.

ხელოვნური ინტელექტის მართვის ბერკეტები

2-2

ხელოვნური ინტელექტის ცნება ბევრი ადამიანისთვის გარდაუვალ მომავალ მოვლენას წარმოადგენს, რომელიც ტექნოლოგიების განვითარებასთან ერთად დაიხვეწება, ძალას მოიკრებს და პირდაპირ თუ არაპირდაპირ გაზრდის თავის გავლენას საზოგადოების  თითოეული წევრის ცხოვრებაზე როგორც პროფესიულად, ისე პერსონალურ დონეზე გადაწყვეტილებების მიღების თვალსაზრისით და არ გადავაჭარბებთ, თუ ვიტყვით, რომ ხელოვნურ ინტელექტს შესწევს ძალა, გარკვეულ დონეზე, ადამიანების ემოციურ მდგომარეობაზეც კი იმოქმედოს.

ხელოვნურ ინტელექტს, ისე როგორც სხვა მრავალ ტექნოლოგიურ პროდუქტს, უდავოდ, აქვს პოტენციალი, მრავალფეროვანი ბენეფიტები შესთავაზოს თავის მომხმარებელს – გაუმარტივოს რუტინული სამუშაო პროცესი, დააზოგვინოს დრო, მისცეს ადამიანებს მეტი შესაძლებლობები და რესურსები ინოვაციური მოღვაწეობისთვის, შექმნას მეტი მატერიალური დოვლათი და ა.შ. თუმცა, მეორე მხრივ, როგორც კვლევები ადასტურებს, არსებობს მთელი რიგი კითხვებისა და გადაუწყვეტელი წინაღობებისა, რომლებიც ასოცირებულია ხელოვნური ინტელექტის ზოგად განვითარებასთან. თავის მხრივ, დარგობრივ ტერმინში – ზოგადი ხელოვნური ინტელექტი – იგულისხმება ტექნოლოგიის მხოლოდ ინფორმაციული და ინტელექტუალური განვითარება, რომ მან სრულფასოვანი ასისტენტირება გაუწიოს ადამიანებს მუშაობის პროცესში. თუმცა ზოგადი განვითარება არ გულისხმობს მის მიერ იდენტობისა და ადამიანის ფსიქოტიპის შეძენას, რომელი მოვლენაც, თავის მხრივ, დისკუსიების დონეზე, კონცეფციურად დაშვებულია და სუპერინტელექტად იწოდება.

2021 წელს ხელოვნური ინტელექტის ეთიკური გამოყენების შესახებ „შპრინგერში“ გამოქვეყნებული კვლევის შედეგების მიხედვით, აღნიშნულ სფეროში მოღვაწე სპეციალისტები, კერძოდ, პროგრამული უზრუნველყოფის პროვაიდერი კომპანიები და „ბიგ დატას“ შემქმნელები ასახელებენ მთელ რიგ არსებულ თუ პოტენციურ პრობლემებს, რომლებიც ასოცირდება ხელოვნური ინტელექტის ყოველდღიურ ცხოვრებაში ინტენსიურ იმპლემენტაციასთან. მათ შორის ყველაზე ხშირად ხაზგასმული საკითხები იყო:  კონფიდენციალურობა, პერსონალური მონაცემების დაცვა, უსაფრთხოება, გამჭვირვალობა, აკუმულირებული მონაცემების სისწორე, ალგორითმული მიკერძოება, დასაქმების ინდექსზე ნეგატიური გავლენა და ა.შ.

ხელოვნური ინტელექტის საფრთხეების ნამდვილობა, რომელზეც ხშირად საუბრობენ, ძალიან სერიოზული გამოწვევაა ნებისმიერი ქვეყნისა და მისი მოსახლეობისთვის. აღნიშნულის კარგი მაგალითია 2020 წლის დასაწყისში ჰონგ-კონგში მომხდარი კომერციული ბანკის ძარცვა –  რაც არასწორად მიეწერა არაბთა გაერთიანებულ საამიროებს – და რომლის შედეგადაც მძარცველებმა, კომპანიის დირექტორის ხმის გაყალბების – ე.წ. Deepfake-ის – საშუალებით, მოახერხეს ბანკის დირექტორის დარწმუნება, რომ 35 მილიონი აშშ დოლარი გადაერიცხათ მსოფლიოს სხვადასხვა ქვეყანაში მითითებულ საბანკო ანგაარიშებზე. ხელოვნური ინტელექტის ექსპერტები განმარტავენ, რომ ხმის გაყალბების ტექნოლოგია შედარებით მარტივია, ვიდრე ვიდეოგაყალბება და ის თანდათან, საკმაოდ სწრაფი ტემპით ვითარდება, რაც პრაქტიკულად შეუძლებელს ხდის ადამიანისთვის ნამდვილობის დადგენას. კიდევ უფრო არასასიამოვნო ფაქტი არის ის, რომ Deepfake-ის გამოყენებით შესაძლებელია ნებისმიერი ადამიანის ხმის იმიტირება, თუ ის ონლაინ რაიმე ფორმით ხელმისაწვდომია. საბოლოო ჯამში, ხელოვნური ინტელექტის შესაძლებლობების არამიზნობრივმა გამოყენებამ  შესაძლოა, სათავე დაუდოს უზარმაზარი ღირებულების ეკონომიკურ დანაშაულებს და საერთაშორისო პოლიტიკურ ურთიერთობებზეც კი შეუქცევადად ნეგატიური გავლენა მოახდინოს.

გამომდინარე ზემოაღნიშნულიდან, თავიანთი ქვეყნების მოქალაქეებზე პასუხისმგებელ მთავრობებს უნდა ჰქონდეთ შემუშავებული გაიდლაინი და საჯარო პოლიტიკა, რომლის მიხედვითაც, ერთი მხრივ, გააკონტროლებენ ხელოვნური ინტელექტის განვითარების ვექტორს და, მეორე მხრივ, სწორ რეაგირებას მოახდენენ ზიანის მომტან ქმედებებზე.

უნდა აღინიშნოს, რომ ხელოვნური ინტელექტის მართვის თვალსაზრისით, არსებობს დილემა, რომელიც კონტროლის ზღვრის დადგენას უკავშირდება და საჯარო და კერძო სექტორის ინტერესების წინააღმდეგობას ქმნის. კერძოდ, საჯარო პოლიტიკით კომპანიებისა და ფიზიკური პირების მისამართით განხორციელებულმა გადამეტებულმა კონტროლმა შესაძლოა, ხელოვნური ინტელექტის პროდუქტზე მომუშავე ადამიანებში ინოვაციური საქმიანობის განხორციელებისთვის საჭირო სტიმულების დაკარგვა გამოიწვიოს,  ხელოვნური ინტელექტის განვითარებაზე მუშობა ნაკლებად მოგებიანი გახადოს, რაც, თავის მხრივ, ავტომატურად მოსპობს ხელოვნური ინტელექტის სიკეთეებისგან სარგებლობის მიღების შესაძლებლობასაც. მეორე მხრივ, ხელოვნური ინტელექტის უმართავ ოპერირებას შესაძლოა მოჰყვეს სერიოზული, გლობალური პრობლემები არა მარტო ეკონომიკური, არამედ პერსონალური მონაცემებისა და სახელმწიფო თავდაცვის თვალსაზრისითაც.

შესაბამისად, მნიშვნელოვანია ხელოვნური ინტელექტის განვითარების მუდმივი კონტროლი, მიმდინარე და, მინიმუმ, საშუალოვადიან პერიოდში მისი შესაძლებლობების შესწავლა და ადეკვატური საჯარო პოლიტიკის ჩამოყალიბება იმისთვის, რომ მოხდეს სამოქალაქო საზოგადოების დაცვა. ბუნებრივია, ნებისმიერი ტიპის საჯარო პოლიტიკა ღრმად უნდა იცნობდეს დარგის სპეციფიკას და ეს  განსაკუთრებით ყურადსაღებია ხელოვნური ინტელექტის შემთხვევაში. ხელოვნური ინტელექტის კარგ საჯარო პოლიტიკას სჭირდება case study-მეთოდზე დაფუძნებული კვლევები და დარგის სპეციალისტებთან მუდმივი, მჭიდრო კონსულტაციები.

გააზიარე

ავტორის სხვა მასალა