Ψεύτικα βίντεο με deepfakes στοχοποιούν ακόμα και εθνικούς θρύλους — ο Νίκος Γκάλης ξεκαθαρίζει την αλήθεια.
Διάψευση από τον Νίκο Γκάλη για βίντεο που τον δείχνει σε αναπηρικό αμαξίδιο
Κυκλοφορούσαν στο διαδίκτυο βίντεο που ισχυρίζονται πως ο Νίκος Γκάλης κατέληξε σε αναπηρικό καροτσάκι λόγω αρθρίτιδας και ότι «χάρη σε νέα μέθοδο γιατρού κατάφερε να ανακάμψει». Ο ίδιος ο Γκάλης απάντησε δημόσια, χαρακτηρίζοντας τα βίντεο ως ψευδή και προειδοποιώντας το κοινό για την έξαρση των AI videos που χρησιμοποιούνται για απάτες.
Στην ανάρτησή του ο Νίκος Γκάλης έγραψε: «Αν και φαίνεται αυτονόητο πως είναι fake, οφείλω να επισημάνω σε όλους να είναι πολύ προσεκτικοί με λογαριασμούς στο tik tok κυρίως, που δημιουργούν AI videos με στόχο να εξαπατήσουν τον κόσμο. Προφανώς δεν έχουν καμιά σχέση με την πραγματικότητα.»
Το σχετικό περιεχόμενο αναρτήθηκε στο Twitter από το προφίλ του: — Nick Galis (@NickGalis6) https://twitter.com/NickGalis6/status/1954954873985962204?ref_src=twsrc%5Etfw
Μέρος της ενσωματωμένης δημοσίευσης περιλαμβάνει επίσης τους παρακάτω συνδέσμους που εμφανίστηκαν στο tweet: https://twitter.com/hashtag/NickGalis?src=hash&ref_src=twsrc%5Etfw https://t.co/BYzxQ77t3H
Γιατί αυτό έχει σημασία — αύξηση deepfakes και παραπληροφόρησης
Η τεχνητή νοημοσύνη επιτρέπει σήμερα τη δημιουργία ρεαλιστικών deepfake βίντεο που μπορούν να παραπλανήσουν το ευρύ κοινό. Όταν θίγονται δημόσια πρόσωπα με ιστορική και κοινωνική βαρύτητα, όπως ο Νίκος Γκάλης, η παραπληροφόρηση μπορεί να προκαλέσει σύγχυση, ψευδείς ειδήσεις και οικονομικές ή κοινωνικές απάτες.
Πώς να αναγνωρίσετε και να αντιμετωπίσετε τέτοια βίντεο
Συμπέρασμα
Ο Νίκος Γκάλης, θρύλος του ελληνικού μπάσκετ, διέψευσε τα βίντεο κι έκρουσε τον κώδωνα του κινδύνου για τα AI videos στο TikTok και αλλού. Η προσοχή στα ψηφιακά ίχνη, η επαλήθευση πηγών και η ενημέρωση σχετικά με τα deepfakes είναι πλέον αναγκαία για να αποφευχθεί η παραπληροφόρηση και οι απάτες στα social media.