Musk, ekspertlər “cəmiyyət üçün risklər” olduğunu əsas gətirərək süni intellekt sistemlərini dayandırmağa çağırırlar
![ONS 2022 oil and gas conference](https://www.az24saat.org/wp-content/uploads/2023/03/Musk-ekspertlər-cəmiyyət-ucun-risklər-oldugunu-əsas-gətirərək-suni-intellekt-780x470.jpg)
28 mart (Reuters) – İlon Mask və bir qrup süni intellekt eksperti və sənaye rəhbərləri açıq məktubda cəmiyyət və bəşəriyyət üçün potensial risklərə istinad edərək, OpenAI-nin yeni buraxılmış GPT-4-dən daha güclü sistemlərin yaradılmasında altı aylıq fasilə verməyə çağırırlar. .
“Həyatın Gələcəyi İnstitutu” qeyri-kommersiya təşkilatı tərəfindən buraxılmış və Musk da daxil olmaqla 1000-dən çox insanın imzaladığı məktub, müstəqil ekspertlər tərəfindən belə dizaynlar üçün ortaq təhlükəsizlik protokolları hazırlanana, həyata keçirilməyə və yoxlanılana qədər qabaqcıl süni intellekt inkişafının dayandırılmasını tələb edir.
“Güclü süni intellekt sistemləri yalnız onların təsirlərinin müsbət olacağına və risklərinin idarə oluna biləcəyinə əmin olduqdan sonra inkişaf etdirilməlidir”, – məktubda deyilir.
Məktubda iqtisadi və siyasi pozulmalar şəklində insan rəqabət qabiliyyətli süni intellekt sistemləri tərəfindən cəmiyyət və sivilizasiya üçün potensial risklər ətraflı təsvir edilib və tərtibatçıları idarəetmə və tənzimləyici orqanlarla bağlı siyasətçilər ilə işləməyə çağırıb.
Həm imzalayanlar arasında Stability AI-nin baş direktoru Emad Mostaque, Alphabet-ə məxsus (GOOGL.O) DeepMind şirkətinin tədqiqatçıları, həmçinin süni intellekt üzrə ağır çəkidə olanlar Yoshua Bengio və Stuart Russell var.
Avropa Birliyinin şəffaflıq reyestrinə əsasən, Həyatın Gələcəyi İnstitutu ilk növbədə Mask Fondu, həmçinin Londonda fəaliyyət göstərən Founders Pledge effektiv altruizm qrupu və Silicon Valley Community Foundation tərəfindən maliyyələşdirilir.
Narahatlıqlar bazar ertəsi Aİ polis qüvvələri Europol-un ChatGPT kimi qabaqcıl süni intellektlə bağlı etik və hüquqi narahatlıqlar qrupuna qoşulması, sistemin fişinq cəhdləri, dezinformasiya və kibercinayətkarlıqda potensial sui-istifadəsi barədə xəbərdarlıq etməsi ilə əlaqədardır.
Bu arada, Böyük Britaniya hökuməti süni intellekt ətrafında “uyğunlaşa bilən” tənzimləyici baza üçün təkliflər açıqladı.
Çərşənbə günü nəşr olunan siyasət sənədində qeyd olunan hökumətin yanaşması, süni intellektin (AI) idarə edilməsi üçün məsuliyyəti texnologiyaya həsr olunmuş yeni bir qurum yaratmaq əvəzinə insan hüquqları, sağlamlıq və təhlükəsizlik və rəqabət üçün tənzimləyiciləri arasında bölüşdürəcək.
Avtomobil istehsalçısı Tesla (TSLA.O) avtopilot sistemi üçün süni intellektdən istifadə edən Musk süni intellektlə bağlı narahatlığını dilə gətirib.
Keçən il buraxılmasından bəri, Microsoft tərəfindən dəstəklənən OpenAI-nin ChatGPT, rəqibləri oxşar böyük dil modellərinin inkişafını sürətləndirməyə və şirkətləri generativ AI modellərini məhsullarına inteqrasiya etməyə sövq etdi.
Future of Life-ın sözçüsü Reuters-ə bildirib ki, OpenAI-nin baş icraçı direktoru Sam Altman məktubu imzalamayıb. OpenAI şərh sorğusuna dərhal cavab vermədi.
Məktubu imzalayan Nyu York Universitetinin professoru Gary Marcus, “Məktub mükəmməl deyil, amma ruh düzgündür: nəticələri daha yaxşı başa düşənə qədər yavaşlamalıyıq” dedi. “Onlar ciddi ziyan vura bilər… böyük oyunçular etdikləri barədə getdikcə daha məxfi olurlar, bu da cəmiyyətin baş verə biləcək hər hansı zərərdən müdafiəsini çətinləşdirir.”
Bengaluruda Jyoti Narayan, Nyu Yorkda Krystal Hu və Londonda Martin Coulter tərəfindən reportajlar. Gerry Doyle və Elaine Hardcastle tərəfindən redaktə
Standartlarımız: Thomson Reuters Trust Principles.
2023-03-29 12:47:19
Mənbə – reuters
Tərcümə“24 SAAT”