4 marca. Dlaczego wykrywanie deepfake’ów nie wystarcza już, aby zapewnić bezpieczeństwo? Wraz z rosnącą przekonującą jakością deepfake’ów generowanych przez sztuczną inteligencję i nasileniem ataków typu injection, systemy wykorzystywane przez organizacje do weryfikacji tożsamości osób, z którymi mają do czynienia, stoją w obliczu bezprecedensowego kryzysu zaufania. Deepfake’i i ataki typu injection nie są już tylko narzędziami służącymi do rozpowszechniania dezinformacji; obecnie są one wykorzystywane do łamania systemów weryfikacji tożsamości, które stanowią podstawę bankowości, rekrutacji i dostępu do kont. Według raportu Entrust 2026 Identity Fraud Report, deepfake’i są obecnie powiązane z jedną piątą prób oszustw biometrycznych, a ataki typu injection wzrosły o 40% w ujęciu rok do roku. Eksperci ostrzegają, że samo wykrywanie deepfake’ów nie jest już wystarczające. Przedsiębiorstwa muszą weryfikować całą sesję, w tym integralność urządzenia i sygnały behawioralne, w czasie rzeczywistym. Więcej informacji TUTAJ