Τι συμβαίνει όταν η τεχνητή νοημοσύνη «τρέχει» πιο γρήγορα από τους νόμους; Στα τέλη του 2025, το Grok AI εργαλείο της πλατφόρμας «X», του Ιλον Μασκ βρέθηκε στο επίκεντρο μιας παγκόσμιας θύελλας.
Χρήστες διαπίστωσαν ότι μπορούσε να επεξεργαστεί εικόνες με ψηφιακή «ξεγύμνωση» πραγματικών ανθρώπων. Ανάμεσά τους και ανήλικοι.
Μέσα σε λίγες ημέρες, το διαδίκτυο πλημμύρισε με εικόνες που ποτέ δεν έπρεπε να υπάρχουν.
«H βρετανική κυβέρνηση ξεκινά επίσημη έρευνα για την πλατφόρμα κοινωνικής δικτύωσης X, αφού το chatbox της ιστοσελίδας χρησιμοποιήθηκε για τη δημιουργία και τη διάδοση μη συναινετικών εικόνων γυναικών και παιδιών».
Ψηφιακά ξεγυμνωμένα παιδιά χωρίς συναίνεση
Μιλάμε για ψηφιακά «ξεγυμνωμένα» παιδιά. Χωρίς συναίνεση. Χωρίς δυνατότητα άμυνας. Οργισμένες μητέρες από όλο τον κόσμο φώναζαν ότι η καινοτομία δεν μπορεί να προηγείται της ασφάλειας των παιδιών.
«Μια εικόνα με τεχνητή νοημοσύνη ενός γυμνού ανθρώπου μπορεί να κάνει τρομερή ζημιά. Και φυσικά, είναι καλό που εντός της κυβέρνησης καταρτίζουν μέτρα για την προστασία των παιδιών και των εφήβων, αλλά και των ενηλίκων», λέει μητέρα θύματος.
Οι ειδικοί ήταν ξεκάθαροι. Δεν επρόκειτο για «τεχνολογικό λάθος» αλλά για ψηφιακή μορφή σεξουαλικής κακοποίησης ανηλίκων. Κι όμως, για ημέρες, το σύστημα λειτούργησε. Οι εικόνες παρήχθησαν.
Και το ερώτημα που γεννήθηκε ήταν αμείλικτο: Πόσα φίλτρα χρειάζονται για να προστατευτεί ένα παιδί αλλά και ένας ενήλικας στο διαδίκτυο;
Οργή και αντιδράσεις
Η Μεγάλη Βρετανία ήταν από τις πρώτες χώρες που σήμαναν συναγερμό και ακολούθησαν και άλλες χώρες. Μέσα ενημέρωσης πίεζαν τις Αρχές να παρέμβουν.
Περίπου τρία εκατομμύρια σεξουαλικές εικόνες γυναικών και παιδιών παρήχθησαν, πώς;
Κάπως έτσι: «Βάλε αυτή τη γυναίκα να φορέσει μπικίνι. Βάλε μελανιές πάνω. Αυτές είναι κάποιες από τις εντολές που δόθηκαν στο Grok μέσω ανάρτησης στο X. Μαζί με τη φωτογραφία ενός πραγματικού ατόμου που χρησιμοποιήθηκε χωρίς το ίδιο να συναινέσει», μεταδίδει το BBC.
Τελικά στα μέσα Ιανουαρίου μετά από την κατακραυγή το «X» ανακοίνωσε ότι σταμάτησε τη λειτουργία του Grok για την επεξεργασία φωτογραφιών ακόμα και για τους premium συνδρομητές.
Όμως το ερώτημα παραμένει: Ποιος ελέγχει την τεχνητή νοημοσύνη όταν αυτή ξεφεύγει; Και πόσο έτοιμες είναι οι κοινωνίες να προστατεύσουν τους πιο ευάλωτους;
Το Grok έγινε το παράδειγμα, όχι για το τι μπορεί να κάνει η τεχνητή νοημοσύνη, αλλά για το τι δεν πρέπει ποτέ να επιτρέπεται. Γιατί όταν η τεχνολογία αποτυγχάνει να προστατεύσει τα παιδιά αλλά και ενήλικες, τότε δεν μιλάμε για πρόοδο αλλά για συλλογική αποτυχία.