
Σύμφωνα με τον Nicholas Patterson -λέκτορα του cybersecurity στο πανεπιστήμιο Deakin της Μελβούρνης της Αυστραλίας- τα ανθρωποειδή σεξ-ρομπότ, που πρόσφατα έπληξαν την αγορά, θα μπορούσαν ενδεχομένως να “χτυπηθούν” από χάκερς και να μετατραπούν σε φονικές μηχανές.
Ο Patterson έδωσε αυτή την προειδοποίηση σε σειρά συνεντεύξεων με διάφορες εκδόσεις του Ηνωμένου Βασιλείου:
“Οι χάκερ μπορούν να εισέλθουν σε ρομπότ ή ρομποτική συσκευή και να έχουν τον πλήρη έλεγχο των συνδέσεων, των βραχιόνων, των ποδιών και άλλων προσαρτημένων εργαλείων, όπως σε μερικές περιπτώσεις μαχαίρια ή συσκευές συγκόλλησης. Συχνά αυτά τα ρομπότ μπορεί να είναι πάνω από 200 κιλά και πολύ ισχυρά. Μόλις ένα ρομπότ “χακαριστεί”, ο χάκερ έχει τον πλήρη έλεγχο και μπορεί να δώσει οδηγίες στο ρομπότ. Το τελευταίο πράγμα που θέλετε είναι ένας χάκερ να έχει τον έλεγχο ενός από αυτά τα ρομπότ. Μόλις “χτυπηθούν”, θα μπορούσαν να χρησιμοποιηθούν απολύτως για να κάνουν φυσικές ενέργειες σε ένα ευνοϊκό σενάριο ή να προκαλέσουν ζημιά.”
Παρόμοιες προειδοποιήσεις εμφανίστηκαν πέρυσι σε απάντηση στην αυξανόμενη δημοτικότητα των παιχνιδιών σεξ με δυνατότητα Bluetooth. Αποκαλύφθηκε ότι οι χάκερς θα μπορούσαν να ελέγχουν τις συσκευές από απομακρυσμένες τοποθεσίες, ακόμη και να τις χρησιμοποιούν για να κατασκοπεύουν ανυποψίαστους αναζητητές ευχαρίστησης.
Ρεαλιστικά, οποιαδήποτε συσκευή που συνδέεται με το διαδίκτυο μπορεί να προγραμματιστεί για να κάνει ζημιά ή, τουλάχιστον, να κατασκοπεύσει εσάς. Στην πραγματικότητα, οι περισσότερες έξυπνες συσκευές έχουν σχεδιαστεί ειδικά για να κατασκοπεύουν τους χρήστες για σκοπούς εξόρυξης δεδομένων.
Ο πρωταρχικός λόγος που τα σεξ-ρομπότ προκαλούν έναν ιδιαίτερο φόβο όταν πρόκειται για τη δυνατότητα να “χακαριστούν”, είναι επειδή είναι φτιαγμένα με τον ίδιο τρόπο με τον άνθρωπο. Αυτές οι συσκευές είναι μερικά από τα πρώτα ανθρωποειδή ρομπότ που έχουν οι καθημερινοί καταναλωτές την ευκαιρία να αλληλεπιδράσουν, γεγονός που φυσικά προκαλεί μεγάλο άγχος σε ορισμένους. Έχει προβλεφθεί ότι τα ανθρωποειδή ρομπότ θα γίνουν ένα μέρος της καθημερινής μας ζωής στο εγγύς μέλλον, αλλά στην πραγματικότητα είναι πολύ λιγότερο επικίνδυνα από τους ανόμοιους ομολόγους τους.
Έχουμε εκπαιδευτεί να πιστεύουμε ότι η απειλή της τεχνητής νοημοσύνης (AI) θα έρθει με τη μορφή ενός ρομπότ-Terminator που μοιάζει να διακρίνεται από έναν πραγματικό άνθρωπο, ενώ οι αόρατοι αλγόριθμοι AI καταλαμβάνουν σιωπηλά τη ζωή μας την τελευταία δεκαετία, κάτω από τις μύτες μας. Η αληθινή απειλή AI είναι άυλη και έρχεται με τη μορφή αλγορίθμων που στέλνουν τους λάθος ανθρώπους στη φυλακή, ελέγχοντας τις πληροφορίες που βλέπετε online και γράφοντας ακόμη και τις ειδήσεις.
Η ιδέα ενός αδίστακτου ρομπότ που μπορεί να περπατήσει και να μιλήσει είναι πράγματι τρομακτική· αλλά έχοντας κάθε υπηρεσία και προϊόν υπό τον ελέγχο αόρατων αλγορίθμων, είναι πολύ χειρότερο. Αν και αυτή η τεχνολογία θα μπορούσε να χρησιμοποιηθεί για να φέρει θετικές αλλαγές στον κόσμο, είναι δυστυχώς αλήθεια -όπως κατέδειξαν πολλοί ειδικοί- ότι η ηθική αυτών των συσκευών είναι τόσο καλή όσο οι άνθρωποι που τις προγραμματίζουν.
Ένα άρθρο που δημοσιεύθηκε πέρυσι στο Nature, διερευνά το ηθικό πλαίσιο της τεχνολογίας, όπως τών αυτο-οδηγούμενων αυτοκινήτων. Το άρθρο επισημαίνει ότι η ηθική των αυτο-οδηγούμενων αυτοκινήτων βασίζεται στο πρόβλημα του τρόλεϊ, ένα ηθικό σενάριο σωσίβιας βάρκας που θα αποδειχθεί εξαιρετικά απίθανο στον πραγματικό κόσμο. Σύμφωνα με τη δεοντολογία των αυτο-οδηγούμενων αυτοκινήτων, που ενημερώνονται από το πρόβλημα του τρόλεϊ, η ζωή των ηλικιωμένων είναι λιγότερο πολύτιμη από εκείνη των νεώτερων γενεών και η ζωή ενός αθλητή είναι πολύ πιο πολύτιμη από μια “μεγάλη” γυναίκα ή άστεγο άτομο.

Ένα αυτο-οδηγούμενο αυτοκίνητο έχει μια επιλογή για το ποιος πεθαίνει σε μια θανατηφόρα συντριβή. Ακολουθούν οι ηθικές σκέψεις https://wef.ch/2P0GdCT #automation

(Συνολικές Επισκέψεις: / Total Visits: 53)
(Σημερινές Επισκέψεις: / Today's Visits: 1)