Більше 1100 експертів у галузі штучного інтелекту (АІ) підписали петицію, яка закликає розробників АІ припинити навчання більш потужних моделей, ніж ChatGPT-4. Проте деякі експерти наполягають на екстремальному підході.
Елієзер Юдковскі, провідний дослідник Machine Intelligence Research Institute, вважає, що ситуація серйозніша, ніж передбачається в петиції. У статті для журналу Time Юдковські попередив, що створення просунутого АІ може призвести до вимирання людської раси: “ якщо хтось створить надто потужний АІ, то в нинішніх умовах я очікую, що незабаром після цього загине кожен представник людського роду і все біологічне життя на Землі” .
Він стверджує, що ми не готові до створення такої системи, і нам не вистачає розуміння та інженерного опрацювання, необхідних для забезпечення її безпеки.
Дебати навколо розробки потужніших моделей ІІ продовжуються вже кілька років. Критики стверджують, що ця технологія може становити значну загрозу для людства, якщо вона потрапить не в ті руки або не буде належним чином контролюватись. Однак прихильники вважають, що він здатний вирішити деякі з найгостріших світових проблем, таких як зміна клімату, хвороби та бідність.