Biztonságos? Mesterséges intelligencia biztonsági szintjei
- 2024. május 2.
A nagy AI ‘forradalom’ kellős közepén nagyjából két táborra szakadt a világ - vannak, akik félnek tőle, és vannak, akik szerint megváltoztatja a világot mindörökre. Az igazság talán, ahogy ez lenni szokott, a két véglet között van, mindenesetre kétségtelen, hogy a mesterséges intelligencia alkalmazása jelent sok kockázatot. Ezt természetesen maguk a fejlesztők is belátták, akik ezeket a behemótokat létrehozták. Olyannyira, hogy sorban jönnek ki azok a leírások, amelyek megpróbálják az AI alkalmazásokat biztonsági szempontból kategóriákba, szintekre sorolni. Az alábbiakban a Claude 3 nevű LLM fejlesztőjétől, az Anthropic nevű cégtől hoztuk el azt a 4 (vagy talán 5?) szintből álló modellt, ahol láthatjuk, hogy hol tartunk most, és azt is, mire számíthatunk a közeli és a nem túl távoli jövőben. Érdekes olvasmány!
Az Anthropic nevű cég Antrophic Responsible Scaling Policy ITT OLVASHATÓ EL angolul, azaz Felelős fejlesztési irányelvek néven hozta létre a biztonsági kockázatok leírását.
Alapvetően 4 (talán a jövőben 5) szintet határoztak meg, nagyjából így kell elképzelni:
Az AI biztonsági szintek rendszerének nagyon tömör összefoglalása a következő: AI biztonsági szint-1 olyan rendszereket jelent, amelyek nem jelentenek jelentős katasztrófális kockázatot, például a 2018-ban kiadott LLM-eket, vagy egy olyan AI rendszert, amely csak sakkozik.
AI biztonsági szint-2: olyan rendszerekre utal, amelyek veszélyes képességek korai jeleit mutatják — például képesek utasításokat adni biológiai fegyverek előállítására —, de az információ még nem használható, mert nem elég megbízható, vagy nem nyújt olyan információt, amit például egy keresőmotor nem tudna. A jelenlegi LLM-ek, beleértve a Claude-ot is, úgy tűnik, hogy AI biztonsági szint-2-be tartoznak.
AI biztonsági szint-3: olyan rendszerekre utal, amelyek jelentősen növelik a katasztrófális visszaélés kockázatát a nem AI alapú alternatívákhoz (pl. keresőmotorok vagy tankönyvek) képest, vagy alacsony szintű autonóm képességeket mutatnak.
Az AI biztonsági szint-4 és magasabb: (AI biztonsági szint-5+) még nincs meghatározva, mivel túlságosan távol áll a jelenlegi rendszerektől, de valószínűleg magában foglalja a katasztrófális visszaélési potenciál és autonómia minőségi fokozódását.
Jelenleg (az Anthropic cég vezetője szerint) az AI biztonsági 2-nél járunk. Ami lehetne is akár megnyugtató, ha arra a kérdésre, hogy ‘oké, de mikor érünk el a 3. szintre’, nem azt válaszolta volna, hogy ‘5-8 hónap, max. 1 év’. A 4., már igencsak sok aggodalomra okot adó fejlettségi szint pedig szintén nincs olyan nagyon messze, 3-5 évre becsülte. Az 5. Szint pedig azért nincs még leírva, mert még fogalmuk sincs, hogy mi lehet.
Elmondható, hogy abban nagyjából konszenzus van, hogy az igazán komoly veszélyt majd a AGI (artificial general intelligence) fogja jelenteni, ami már valóban képes lesz arra, hogy csináljon dolgokat, és úgy működhessen, mint egy ember. Ennek az elérése azonban komoly akadályokba ütközik, és nem értenek egyet abban sem, hogy mi lesz a megoldás. Sokan azt gondolják, hogy egyszerűen erősebb alkalmazásokat kell készíteni, azaz erőből kell növelni a kapacitást - még több adatbázis, még több kapcsolat, még több tréning kell. A baj ezzel az, hogy ezt valószínűleg a végtelenségig nem lehet csinálni (nem juthatunk el a Holdra úgy, hogy egyre több téglát rakunk egymásra), valamint rendkívül drága. Az egyes verziók előállításának és betanításának a költségei lassan felfoghatatlan mértékben nőnek (a ChatGPT 3 állítólag 100 millió dollár körül volt, a 4 már 1 milliárd dollár lesz, az 5 várhatóan 100 milliárd, és így tovább). Ez természetesen azt is jelenti, hogy alapmodelleket készíteni nem fog tudni más, csak az, akinek rengeteg pénze van. És ha így megy tovább, a világ annak a pár embernek a kezébe kerül, akik kezében az AI hatalom és tudás összpontosul. Ez nem mindenkit tölt el nyugalommal és békével.
Addig is, lépkedjünk óvatosan, nem biztos, hogy mindig, minden alkalmazást használnunk kell, tájékozódjunk, legyünk tudatos felhasználók, és próbáljuk erre nevelni tanítványainkat is - nem mintha nagyon nagy befolyással lehetnénk a világ folyására, de azért némi ellenőrzés még a kezünkben van, akkor is, ha ez nem mindig tűnik így.