-
Petri: Az új nyílt forráskódú eszköz az AI biztonsági kutatásának felgyorsítására
Az mesterséges intelligencia (AI) fejlődése egyre összetettebbé és sokrétűbbé válik, ezért a modellek viselkedésének alapos és gyors vizsgálata kulcsfontosságú a biztonságos alkalmazásuk érdekében. Ebben a kihívásban nyújt segítséget a Petri, egy új nyílt forráskódú auditeszköz, amelyet a legfrissebb kutatások alapján fejlesztettek ki. A Petri automatizált módon teszteli az AI modelleket, megkönnyítve a kutatók számára a viselkedési minták gyors és átfogó feltérképezését. Hogyan működik a Petri? A Petri, azaz a Parallel Exploration Tool for Risky Interactions, egy automatizált ügynököt alkalmaz, amely különféle forgatókönyvek mentén vizsgálja az adott AI rendszert. Ez a folyamat többkörös párbeszédeket szimulál valós felhasználókkal és eszközökkel, majd értékeli és összefoglalja a modell viselkedését. A rendszer párhuzamosan dolgozik a…
-
Elérhetővé vált a „The Thinking Game” dokumentumfilm a Google DeepMind csatornáján
Az AlphaFold ötödik évfordulójának alkalmából a Google DeepMind ingyenesen elérhetővé tette legújabb dokumentumfilmjét, „The Thinking Game” címmel, amely november 25-től tekinthető meg a DeepMind YouTube-csatornáján. Az alkotás öt éven át készült az AlphaGo mögött álló díjnyertes csapat közreműködésével, és bepillantást enged a mesterséges intelligencia fejlesztések kulisszái mögé, különösen az általános mesterséges intelligencia (AGI) kutatásának izgalmas folyamatába. A film főszereplője Demis Hassabis, a Google DeepMind alapítója, valamint kutatócsapata, akik fontos mérföldköveken vezetnek végig minket. Különösen emlékezetes a rész, amikor az AlphaFold csapata rájött, hogy sikerült megoldaniuk egy 50 éve fennálló nagy biológiai problémát. Ez a felfedezés olyan áttörést jelentett a tudományban, amelyet később Nobel-díjjal ismertek el. A „The Thinking Game” nemcsak…
-
Az Anthropic kutatásai az AI és a biológiai biztonság kapcsolatáról
Az Anthropic vállalat egyik fő célja, hogy a mesterséges intelligencia (AI) segítségével elősegítse a tudományos felfedezéseket, különösen a biológia és az orvostudomány területén, ezáltal javítva az emberi életminőséget. A cég által fejlesztett Claude nevű nyelvi modell már most is támogatja a kutatókat abban, hogy jobban strukturálják adataikat, gyorsabban jussanak új felismerésekhez, és több időt fordíthassanak magára a tudományos munkára. Ugyanakkor az AI kettős felhasználású technológia, amely nemcsak hasznos lehet, de potenciálisan veszélyeket is rejthet magában, ha rosszindulatú szereplők kezébe kerül. Az AI biztonsági kihívásai és a biológiai kockázatok Az Anthropic már a Claude Opus 4 modell bevezetésekor szigorú biztonsági intézkedéseket vezetett be, különös tekintettel a kémiai, biológiai, radiológiai és nukleáris…