• Ukrajna
  • Egyesült Államok
  • Oroszország
  • történelem
  • Daily News Hungary
hm-logohm-logohm-logohm-logo
  • Külföld
  • Belföld
  • Trend
  • MIX
  • Kult+Múlt
  • Utazás
✕
Rendkívüli hírek
Szerkesztőség Szerkesztőség · 2023.03.29.
· Külföld

Elon Musk szerint azonnal szüneteltetni kell a mesterséges intelligencia fejlesztését

mesterséges intelligencia Elon Musk

Forrás: Pexels

Elon Musk egy csoport mesterséges intelligencia-szakértővel és ipari vezetővel féléves szünetet kér az OpenAI nemrég indított GPT-4-nél erősebb rendszerek fejlesztésére. Nyílt levelében pedig a társadalomra és az emberiségre jelentett potenciális veszélyeire hivatkozik.

A Reuters szerint a hónap elején a Microsoft által támogatott OpenAI bemutatta GPT (Generative Pre-trained Transformer) mesterséges intelligenciaprogramjának negyedik iterációját. A program képes a felhasználókkal folytatott emberhez hasonló beszélgetésektől kezdve a dalok megkomponálásán át a hosszú dokumentumok összefoglalójára is.

A nonprofit Future of Life Institute által kiadott levelet több mint 1000 ember, köztük Musk is aláírta. A levél a fejlett mesterséges intelligencia fejlesztésének szüneteltetésére szólított fel mindaddig, amíg az ilyen tervek közös biztonsági protokolljait független szakértők nem dolgozzák ki, nem hajtják végre és nem ellenőrzik.

“A nagy teljesítményű mesterséges intelligenciarendszereket csak akkor szabad fejleszteni, ha biztosak vagyunk abban, hogy hatásuk pozitív lesz, és kockázataik kezelhetőek lesznek.”

A levél részletezte az emberekkel versengő mesterséges intelligencia rendszerek által a társadalomra és a civilizációra jelentett potenciális kockázatokat gazdasági és politikai zavarok formájában. Ezzel együtt felszólította a fejlesztőket, hogy működjenek együtt a politikai döntéshozókkal az irányítás és a szabályozó hatóságokkal.

Máris ekkora veszélyt jelent a mesterséges intelligencia?

A levelet aláírta többek között a Stability AI vezérigazgatója, Emad Mostaque, az Alphabet tulajdonában lévő (GOOGL.O) DeepMind kutatói, valamint az AI egyik “keresztapjaként” emlegetett Yoshua Bengio és Stuart Russell, a terület kutatásának egyik úttörője.

Az Európai Unió átláthatósági nyilvántartása szerint az Future of Life Institute-ot elsősorban a Musk Foundation, valamint a londoni székhelyű Founders Pledge hatékony altruista csoport és a Szilícium-völgyi Közösségi Alapítvány finanszírozza. Az aggodalmakra az EU rendőrsége, az Europol hétfőn csatlakozott a ChatGPT-hez hasonló fejlett mesterséges intelligenciával kapcsolatos etikai és jogi aggályok kórusához. Egyúttal figyelmeztetett a rendszer adathalászkísérletekhez, dezinformációhoz és kiberbűnözéshez való lehetséges visszaélésekre.

Eközben az Egyesült Királyság kormánya javaslatokat tett a mesterséges intelligencia “adaptálható” szabályozási keretére.

A kormány szerdán közzétett politikai dokumentumban felvázolt megközelítése szerint a mesterséges intelligencia szabályozásának felelőssége az emberi jogokért, az egészségügyért és biztonságért, valamint a versenyért felelős szabályozó hatóságok között oszlana meg, ahelyett, hogy egy új, a technológiával foglalkozó szervet hozna létre.

Ez is érdekelhet:

  • Most már hivatalos: az amerikai gyermekek halálának legfőbb oka a lőfegyver
  • VIDEÓ: Oroszország szuperszonikus rakétákat lőtt ki a Japán-tengeren
Ha szeretnéd segíteni a HellóMagyar munkatársainak munkáját és a független újságírást,
itt tudod támogatni az oldalunkat
adathalászat Egyesült Államok Egyesült Királyság közösségi média mesterséges intelligencia
Megosztás

Érdemes elolvasni

  • 190 éve jelentek meg először a gőzkocsik Budapesten

  • Miért nem eszünk pulykatojást?

  • A szemünk előtt zajlik az emberi evolúció a Tibeti-fennsíkon

  • A Jupiter, a Naprendszer óriása, egykor kétszer akkora volt, mint most

  • A bálnák éneke: Megdöbbentő hasonlóság az emberi nyelv és a bálnadal között

  • A Wizz Air minden eddiginél mozgalmasabb nyárra készül

Kapcsolódó cikkek

Vlagyimir Putyin Oroszország Ukrajna háború új nukleáris fegyverek ballisztikus rakéták
2025.05.23.

Oroszország új nukleáris rakétákat fejleszt


Olvasson tovább
A Szahara az űrből
2025.05.23.

Szlovákia elismeri Marokkó autonómia tervét „a végleges megoldás alapjaként” a Szahara-vitában


Olvasson tovább
parajdi sóbánya erdély
2025.05.23.

Nem múlt el a veszélyhelyzet a parajdi sóbánya körül


Olvasson tovább
Apache helikopter NATO hadgyakorlat Oroszország határában
2025.05.22.

Trump arra bíztatta Oroszországot, hogy támadja meg a NATO-t


Olvasson tovább
rkk_336x280px

Érdemes elolvasni

stso

Adatkezelési tájékoztató

Süti (cookie) kezelése

Jogi közlemény

Szerzői Jogok

Hirdess velünk

Impresszum

© 2025 HelloMagyar. Minden jog fenntartva! | Szerver: levixdc.hu
Olvastad már?
190 éve jelentek meg először a gőzkocsik Budapesten

190 éve jelentek meg először a gőzkocsik Budapesten

Tovább olvasok
Miért nem eszünk pulykatojást?

Miért nem eszünk pulykatojást?

Tovább olvasok
A szemünk előtt zajlik az emberi evolúció a Tibeti-fennsíkon

A szemünk előtt zajlik az emberi evolúció a Tibeti-fennsíkon

Tovább olvasok
A Jupiter, a Naprendszer óriása, egykor kétszer akkora volt, mint most

A Jupiter, a Naprendszer óriása, egykor kétszer akkora volt, mint most

Tovább olvasok
A bálnák éneke: Megdöbbentő hasonlóság az emberi nyelv és a bálnadal között

A bálnák éneke: Megdöbbentő hasonlóság az emberi nyelv és a bálnadal között

Tovább olvasok
A Wizz Air minden eddiginél mozgalmasabb nyárra készül

A Wizz Air minden eddiginél mozgalmasabb nyárra készül

Tovább olvasok
Egészen pazar a Parthenón 3D-s rekonstrukciója

Egészen pazar a Parthenón 3D-s rekonstrukciója

Tovább olvasok
Egy szinte tökéletes gömb alakú valami bocsát ki rádiójeleket a világűr mélyén

Egy szinte tökéletes gömb alakú valami bocsát ki rádiójeleket a világűr mélyén

Tovább olvasok
2025-ben is forró nyárra számíthatunk: itt vannak a legfrissebb előrejelzések

2025-ben is forró nyárra számíthatunk: itt vannak a legfrissebb előrejelzések

Tovább olvasok
Mi alapján nevezik el a budapesti utcákat?

Mi alapján nevezik el a budapesti utcákat?

Tovább olvasok
  • 0
  • 1
  • 2
  • 3
  • 4