Az Apple álláspontja szerint a versenytársak mind hazugságokat terjesztenek a mesterséges intelligenciával kapcsolatban.

Az Apple az utóbbi hónapokban igencsak viharos időszakon van túl. Tavaly nyáron nagy reményekkel jelentették be, hogy mesterséges intelligenciával kívánják gazdagítani eszközeiket, és ezzel új dimenziókat nyitnak a mobilos asszisztensek világában. Azonban a dolog nem sült el zökkenőmentesen: számos súlyos hiba és hiányosság merült fel, és még egy év elteltével is meglehetősen szűk a választék. Ráadásul az időközben kiderült, hogy az Apple jelentős hátrányba került a mesterséges intelligencia terén a konkurenciához képest; egy belsős levelezés alapján úgy tűnik, hogy körülbelül két évnyi lemaradásuk van a Google és az OpenAI mögött.
Pontosan ezért meglehetősen furcsán hat az a kutatás, amelyet nemrégiben a cupertinói óriás, az Apple publikált – számol be róla a Futurism. A cég által közzétett tanulmányban egy gépi tanulási szakértőkből álló csapat arra a következtetésre jutott, hogy a mesterséges intelligencia szektor jelentősen eltúlozza a vezető MI-modellek, mint például az OpenAI o3, az Anthropic Claude 3.7 és a Google Gemini, képességeit.
A kutatók éles kritikát fogalmaznak meg olyan vállalatok állításaival szemben, mint az OpenAI, amelyek azt hirdetik, hogy legújabb modelljeik immár képesek valódi gondolkodásra. Az Apple szakemberei ezzel szemben úgy vélik, hogy mindez csupán a "gondolkodás hamis érzetét" kelti.
Elmondásuk szerint az érvelő modelleknek alapvetően úgy kellene működniük, hogy a felhasználói kérdéseket darabokra bontják, és egy "gondolati láncon" végighaladva jutnak el a válaszokhoz. Az Apple szakértői azonban megkérdőjelezték, tényleg ez történik-e. Mint írják, "bár ezek a modellek jobb teljesítményt mutatnak az érvelési teszteken, alapvető képességeik, skálázási tulajdonságaik és korlátjaik továbbra sem ismertek".
A kutatók megállapításaik szerint a jelenlegi benchmark tesztek komoly adatszennyezés problémáival küzdenek, és nem adnak megfelelő rálátást az érvelési görbék struktúrájára és minőségére. Kutatásaik során különféle feladatok teljesítménye alapján azt tapasztalták, hogy a fejletteknek mondott modellek bizonyos bonyolultságok mellett teljesen megbuknak a pontos válaszok előállításában. Ezt a jelenséget a túlgondolás következményeként értelmezik. Továbbá hangsúlyozták, hogy aggasztó tendencia figyelhető meg: a legújabb generációs érvelési modellek nagyobb hajlamot mutatnak a hallucinációkra, mint a korábbi, egyszerűbb nyelvi modellek, ami egyértelmű jele annak, hogy a technológiai fejlődés nem a kívánt irányba tart.