• Mesterséges intelligencia,  Technikai SEO

    Csak néhány mérgezett dokumentum elegendő a nagyméretű nyelvi modellek hátulütős megfertőzéséhez

    A mesterséges intelligencia fejlődésével párhuzamosan egyre nagyobb figyelem irányul a nagyméretű nyelvi modellek (LLM-ek) biztonságára. Egy friss, az Egyesült Királyság AI Security Institute, az Alan Turing Institute, valamint az Anthropic kutatócsoportjainak közös tanulmánya rávilágított arra, hogy mindössze néhány száz, szándékosan manipulált dokumentum is komoly sebezhetőséget okozhat ezekben a modellekben. Az eredmények megkérdőjelezik a korábbi feltételezést, miszerint a támadóknak a teljes tanítóadat bizonyos százalékát kellene kézben tartaniuk ahhoz, hogy sikeres támadást hajtsanak végre. Mi is az a „adatmérgezés” és hogyan működik a hátulütős támadás? A nagyméretű nyelvi modelleket – például a Claude-ot – óriási mennyiségű, nyilvánosan elérhető szöveges adatból tanítják, melyek között személyes blogok és különféle weboldalak is szerepelnek. Ez lehetőséget…