Κίνδυνοι από την τεχνητή νοημοσύνη: Εικόνες σεξουαλικής κακοποίησης παιδιών απειλούν να κατακλύσουν το διαδίκτυο

Κίνδυνοι από την τεχνητή νοημοσύνη: Εικόνες σεξουαλικής κακοποίησης παιδιών απειλούν να κατακλύσουν το διαδίκτυο

Οι «χειρότεροι εφιάλτες» που σχετίζονται με τις εικόνες σεξουαλικής κακοποίησης παιδιών που δημιουργούνται από τεχνητή νοημοσύνη επικρατούν και απειλούν να καταλάβουν το Διαδίκτυο, προειδοποιεί μια ειδικός στην ασφάλεια. Το Internet Watch Foundation (IWF) δήλωσε ότι ανακάλυψε κοντά σε 3.000 εικόνες κακοποίησης που δημιουργήθηκαν από την τεχνητή νοημοσύνη και παραβίαζαν τη νομοθεσία του Ηνωμένου Βασιλείου. Η οργάνωση με έδρα στο Ηνωμένο Βασίλειο ανέφερε ότι υπάρχουσε υλικό κακοποίησης παιδιών στην πραγματική ζωή που εισάγεται σε μοντέλα τεχνητής νοημοσύνης, τα οποία παράγουν νέες απεικονίσεις.

Σύμφωνα με την οργάνωση, αυτή η τεχνολογία χρησιμοποιήθηκε επίσης για να δημιουργηθούν εικόνες που απεικονίζουν γνωστούς που έχουν γεράσει, και στη συνέχεια τα παρουσιάζουν ως παιδιά σε σεξουαλικά σενάρια κακοποίησης. Άλλα παραδείγματα υλικού σεξουαλικής κακοποίησης παιδιών περιλαμβάνουν τη χρήση τεχνολογίας τεχνητής νοημοσύνης για την τροποποίηση εικόνων παιδιών που βρέθηκαν στο διαδίκτυο. Το IWF προειδοποίησε το καλοκαίρι για την κατάχρηση της τεχνητής νοημοσύνης, αλλά ανέφερε ότι η τελευταία έκθεσή του έδειξε ότι η χρήση της τεχνολογίας επιταχύνθηκε. Η Suzie Hargreaves, εκτελεστική διευθύντρια του IWF, δήλωσε ότι οι χειρότεροι φόβοι της οργάνωσης έχουν γίνει πραγματικότητα.

“Είναι ανησυχητικό, βλέπουμε εγκληματίες να χρησιμοποιούν επίτηδες την τεχνητή νοημοσύνη”

«Νωρίτερα φέτος, προειδοποιήσαμε ότι οι εικόνες τεχνητής νοημοσύνης θα μπορούσαν σύντομα να γίνουν αδιάκριτες από τις πραγματικές εικόνες παιδιών που υποφέρουν από σεξουαλική κακοποίηση και ότι θα ξεκινούσαμε να δούμε αυτές τις εικόνες να αυξάνονται σημαντικά σε αριθμό. Τώρα έχουμε φτάσει σε αυτό το σημείο», είπε σύμφωνα με την Guardian. «Είναι ανησυχητικό, βλέπουμε εγκληματίες να χρησιμοποιούν επίτηδες την τεχνητή νοημοσύνη σε εικόνες πραγματικών θυμάτων που έχουν ήδη υποστεί κακοποίηση. Παιδιά που έχουν υποστεί βιασμό στο παρελθόν τώρα παρουσιάζονται σε νέα σενάρια επειδή κάποιος, κάπου, θέλει να το δει». Το IWF ανέφερε επίσης ότι είχε εντοπίσει στοιχεία για την πώληση εικόνων που δημιουργήθηκαν από την τεχνητή νοημοσύνη στο διαδίκτυο.

Τα πιο πρόσφατα ευρήματά της βασίζονται σε έρευνα που διήρκησε έναν μήνα σε ένα φόρουμ για την κακοποίηση παιδιών στο σκοτεινό ιστό, ένα μέρος του Διαδικτύου που μπορεί να προσπελαστεί μόνο μέσω ειδικού προγράμματος περιήγησης. Εξέτασε 11.108 εικόνες στο φόρουμ, με 2.978 από αυτές να παραβιάζουν την βρετανική νομοθεσία που απαγορεύει την απεικόνιση σεξουαλικής κακοποίησης παιδιών. Το υλικό που δημιουργείται από την τεχνητή νοημοσύνη θεωρείται παράνομο σύμφωνα με τον νόμο προστασίας των παιδιών του 1978, που καθιστά ποινικό αδίκημα τη λήψη, τη διανομή και την κατοχή «αναισθησιοδότησης της φωτογραφίας ή ψεύτικων φωτογραφιών» παιδιού. Το IWF ανέφερε ότι η συντριπτική πλειονότητα του παράνομου υλικού που ανακάλυψε παραβίαζε τον νόμο προστασίας των παιδιών, με περισσότερες από μία στις πέντε εικόνες να ταξινομούνται ως κατηγορία Α, το πιο σοβαρό είδος περιεχομένου που μπορεί να απεικονίσει βιασμό και σεξουαλική βασανιστήριο.

Η οργάνωση ανησυχεί ότι αυτό το υλικό που δημιουργείται από την τεχνητή νοημοσύνη θα αποσπάσει την προσοχή από τις αρχές στην ανίχνευση πραγματικής κακοποίησης και την παροχή βοήθειας στα θύματα.

«Εάν δεν αντιμετωπίσουμε αυτήν την απειλή, αυτό το υλικό απειλεί να πλημμυρίσει το Διαδίκτυο», δήλωσε η Hargreaves.

ΔΗΜΟΦΙΛΗ ΑΡΘΡΑ

ΔΗΜΟΦΙΛΗ ΑΡΘΡΑ