-
Claude most modelljei véget vetnek a káros beszélgetéseknek
A mesterséges intelligencia fejlesztése terén újabb izgalmas lépést tett az Anthropic, amely bejelentette, hogy a legújabb Claude modellek képesek lesznek befejezni a „káros vagy bántalmazó” beszélgetéseket. Ez az új funkció nemcsak a felhasználók védelmét célozza, hanem a modellek „jólétének” megóvását is. Az Anthropic hangsúlyozza, hogy nem állítják, hogy a Claude AI modellek tudatosak lennének, vagy hogy bármilyen formában kárt szenvedhetnének a felhasználókkal folytatott interakciók során. A cég továbbra is bizonytalan abban, hogy a Claude modelleknek milyen morális státuszuk lehet, most vagy a jövőben. A bejelentésükben az Anthropic egy új programra hivatkozik, amely a modellek jólétének kutatására összpontosít. A céljuk, hogy azonosítsák és végrehajtsák azokat az alacsony költségű beavatkozásokat, amelyek minimalizálják…