Rafaels Nadals brīdinājis sabiedrību, ka ar mākslīgā intelekta palīdzību tiek veidoti viltoti video ar viņa līdzību. Bijusī tenisa zvaigzne sacīja, ka šajos video redzama figūra, kas atdarina viņa balsi un izskatu, vienlaikus sniedzot investīciju padomus, ko viņš nekad nav darījis, vēsta euroweeklynews.com.
Nadals izplatīja brīdinājumu sociālajos tīklos, aicinot savus sekotājus būt piesardzīgiem. “Kopā ar savu komandu esam atklājuši, ka dažās platformās cirkulē mākslīgā intelekta ģenerēti viltoti video,” viņš rakstīja. “Šajos video padomi vai investīciju priekšlikumi, kas nav no manis, tiek piedēvēti man. Tā ir maldinoša reklāma.”
Eksperti apgalvo, ka šāda veida krāpšana, kas pazīstama kā dziļviltojumi, visā pasaulē kļūst arvien izplatītāka. Dziļie viltojumi izmanto mākslīgo intelektu, lai manipulētu ar attēliem un audio, lai saturs izskatītos īsts, bieži vien vēršoties pret slavenībām un sabiedrībā zināmām personām.
Kiberdrošības speciālisti brīdina, ka, tehnoloģijām attīstoties, ikdienas lietotājiem kļūst arvien grūtāk pamanīt manipulētus video.
Nadals uzsvēra, ka viņš neatbalsta nevienu no video redzamajiem vēstījumiem vai kampaņām, un mudināja cilvēkus pārbaudīt avotus, pirms uzticas tiešsaistes investīciju konsultācijām.
Brīdinājums uzsver pieaugošos mākslīgā intelekta vadītu krāpniecību riskus un nepieciešamību interneta lietotājiem saglabāt modrību.
Hola a todos,
— Rafa Nadal (@RafaelNadal) September 23, 2025
Comparto este mensaje de alerta, algo poco habitual en mis redes, pero necesario.
Hemos detectado junto a mi equipo que circulan en algunas plataformas vídeos falsos generados por inteligencia artificial, en los que aparece una figura que imita mi imagen y voz.
En…