2024 წლის ნობელის პრემია ფიზიკაში მიენიჭათ ჯონ ჰოპფილდს და ჯეფრი ჰინტონს — „ფუნდამენტური აღმოჩენებისა და გამოგონებებისთვის, რომლებმაც შესაძლებელი გახადა მანქანური სწავლება ხელოვნური ნეირონული ქსელებით“ 

ეს გადაწყვეტილება განსაკუთრებულია, რადგან ხაზს უსვამს ერთ მთავარ იდეას:
დღევანდელი AI-ის „აფეთქება“ მხოლოდ პროგრამირების შედეგი არ არის — მას ფიზიკის ენით აღწერადი პრინციპებიც უდგას უკან.


რატომ დაჯილდოვდნენ ფიზიკაში და არა „კომპიუტერულ მეცნიერებაში“?

დღეს ბევრი ადამიანი AI-ს უკავშირებს მხოლოდ ჩატბოტებს, სურათების გენერატორებს ან რეკომენდაციის სისტემებს. მაგრამ ნობელის კომიტეტი გვახსენებს, რომ AI-ის ერთ-ერთი ძირითადი ბირთვი არის მოდელები, რომლებიც პოულობენ შაბლონებს (patterns) დიდ მონაცემებში — და ამისთვის ხშირად გამოიყენება ფიზიკაში ცნობილი მიდგომები:

  • მრავალკომპონენტიანი სისტემების აღწერა;
  • ენერგიის/სტაბილურობის იდეა;
  • ალბათობები და სტატისტიკური კანონები.

ჰოპფილდის იდეა: „ასოციაციური მეხსიერება“

ჰოპფილდის იდეა აღწერს როგორც სტრუქტურას, რომელსაც შეუძლია ინფორმაციის შენახვა და აღდგენა.

ყველას გვქვს მსგავსი გამოცდილება: სიტყვა გახსოვს „ნახევრად“ — გიტრიალებს გონებაში, მაგრამ ბოლომდე ვერ იხსენებ. შემდეგ კი უცებ სწორი სიტყვა „გახსენდება“.
ჰოპფილდის ქსელი სწორედ ასეთ პრინციპს იმეორებს: თუ მიაწოდე არასრული ან ოდნავ დამახინჯებული შაბლონი, სისტემა ცდილობს მივიდეს „ყველაზე ახლოს არსებულ სწორ ვერსიამდე“.

როგორ?
ჰოპფილდმა გამოიყენა ფიზიკაში ცნობილი იდეა — ენერგიის მინიმიზაცია. ქსელის საერთო მდგომარეობა შეიძლება ჩაითვალოს „ენერგიად“, და სისტემა ბუნებრივად მიდის იქით, სადაც ენერგია ყველაზე დაბალია (სტაბილური მდგომარეობა).  მაგალითად, ბურთი ეშვება მთაგორიან ლანდშაფტში და ბოლოს „ვარდება“ უახლოეს ხეობაში. ხეობა არის „შენახული სიტყვა“, ხოლო ბურთის საბოლოო გაჩერება — აღდგენილი პასუხი.

ეს მიდგომა დღესაც მნიშვნელოვანია, რადგან გვასწავლის: ქსელს შეუძლია სწორი პასუხის „მოპოვება“ არა მკაცრი წესებით, არამედ დინამიკით და სტაბილურობით.


ჰინტონის იდეა: ბოლცმანის მანქანა და „დამალული“ შაბლონები

ჰინტონი დაინტერესდა კიდევ უფრო რთული ამოცანით: კარგი, ვთქვათ, ქსელი „იხსენებს“ ნახატს — მაგრამ შეუძლია კი მას გაიგოს რა არის ამ ნახატზე? როგორ „დაახარისხოს“ კატა, ძაღლი, მანქანა ისე, როგორც ბავშვი სწავლობს — ახსნების გარეშე, მხოლოდ მაგალითებით? 

აქ ჩნდება მისი იდეა: ბოლცმანის მანქანა, რომელიც სტატისტიკური ფიზიკის ერთ-ერთ მთავარ პრინციპს ეყრდნობა — ბოლცმანის განაწილებას (ალბათობებს ენერგიის მიხედვით). 

ბოლცმანის მანქანის მნიშვნელოვანი ნაწილი არის:

  • visible nodes — სადაც შეყავთ მონაცემი (მაგ. სურათის პიქსელები);
  • hidden nodes — „დამალული ფენა“, რომელიც იჭერს ისეთ მახასიათებლებს, რასაც პირდაპირ ვერ ვხედავთ; 

ეს „hidden“ ფენა ფაქტობრივად ნიშნავს: AI ცდილობს თვითონ „დაიჭიროს“ წესები მონაცემში — მაგალითად:

  • რა ქმნის „კატის“ შაბლონს;
  • რა ქმნის „სახის“ სტრუქტურას;
  • რა მსგავსებებია სხვადასხვა მაგალითებს შორის.

ბოლცმანის მანქანა ერთ-ერთი ადრეული გენერაციული მოდელის მაგალითი — ანუ შეუძლია არა მხოლოდ ამოცნობა, არამედ ახალი, მსგავსი ნიმუშების შექმნაც.


რატომ გახდა AI ასე ძლიერი ბოლო წლებში?

AI-ის სწრაფი განვითარება შესაძლებელი გახდა ორი ფაქტორის გამო:

  1. უზარმაზარი მოცულობის მონაცემები (დასწავლისთვის);
  2. გამოთვლითი სიმძლავრის მკვეთრი ზრდა.

ამის შედეგად მივიღეთ Deep Learning — მრავალფენიანი, ძალიან დიდი ნეირონული ქსელები. შედარებისთვის, ჰოპფილდის 1982 წლის ქსელი მუშაობდა ~30 ნოდით (რამდენიმე ასეული პარამეტრი), ხოლო თანამედროვე დიდი ენობრივი მოდელები შეიძლება შეიცავდეს ტრილიონზე მეტ პარამეტრს. ეს განსხვავება გვაჩვენებს, რატომ მივედით ChatGPT-ის მსგავს შესაძლებლობებამდე.


როგორ იყენებს მეცნიერება AI-ს დღეს?

AI არა მხოლოდ ყოველდღიური აპებია. ის აქტიურად ეხმარება ფიზიკასაც, მაგალითად:

  • ჰიგსის ნაწილაკის აღმოჩენისთვის საჭირო მონაცემების გაფილტვრაში;
  • გრავიტაციული ტალღების სიგნალების „ხმაურიდან“ ამოღებაში;
  • ეგზოპლანეტების ძიებაში;
  • მოლეკულებისა და მასალების თვისებების პროგნოზირებაში (ცილებისა და მასალების სტრუქტურა, ახალი ეფექტური მზის ელემენტები და სხვ.).

სრული ტექსტის სანახავად შეგიძლიათ ეწვიოთ ბმულს:

https://www.nobelprize.org/uploads/2024/11/popular-physicsprize2024-3.pdf