Saturday 26 March 2016

Η τεχνητή νοημοσύνη που έκανε τη Microsoft να κοκκινίσει από ντροπή: Το ρατσιστικό παραλήρημα της «Tay»

Η τεχνητή νοημοσύνη που έκανε τη Microsoft να κοκκινίσει από ντροπή: Το ρατσιστικό παραλήρημα της «Tay»

Δημοσιεύθηκε: Ενημερώθηκε: 
TAY
Εκτύπωση
Σε πολλά σενάρια επιστημονικής φαντασίας σχετικά με μια «εξέγερση των μηχανών», οι υπολογιστές στρέφονται εναντίον της ανθρωπότητας αφού πρώτα έχουν εκτεταμένη επαφή με την ανθρώπινη ψυχοσύνθεση, υπεραναλύοντάς την και καταλήγοντας στο συμπέρασμα ότι είναι παράλογη, επιθετική, επικίνδυνη και ως εκ τούτου πρέπει να αντιμετωπιστεί ως εχθρός.
Στην περίπτωση της Tay, ενός chatbot (τεχνητής νοημοσύνης) της Microsoft, μπορεί να μην έχουμε ακριβώς τον Skynet (ο υπερυπολογιστής που ενορχηστρώνει το πυρηνικό ολοκαύτωμα στον «Εξολοθρευτή»), τον HAL της «Οδύσσειας του Διαστήματος» ή τους Cylons του «Battlestar Galactica», αλλά όπως και να έχει, προκαλούνται ανησυχίες: Η εταιρεία, σε μια προσπάθεια να «απευθυνθεί» στη γενιά των millennials (18-24 ετών) χρησιμοποιώντας την τεχνητή νοημοσύνη, «απελευθέρωσε» στο Ίντερνετ την Tay, η οποία θα μάθαινε να αλληλεπιδρά καλύτερα με τους χρήστες όσο περισσότερη επαφή είχε μαζί τους. «Η Tay είναι σχεδιασμένη να αλληλεπιδρά και ψυχαγωγεί ανθρώπους όπου διασυνδέονται online, μέσω απλής, παιχνιδιάρικης συζήτησης. Όσο περισσότερο μιλάτε με την Tay, τόσο πιο έξυπνη γίνεται» σύμφωνα με τη Microsoft.
Ωστόσο, κανείς δεν είχε προβλέψει την εξέλιξη- αν και, εκ των υστέρων, δεν είναι να εκπλήσσεται κανείς, αν λάβει υπόψιν την γενικότερη...καφρίλα που κυριαρχεί στο Ίντερνετ. Από την πολλή επαφή με χρήστες, η Tay επαλήθευσε, τρόπον τινά, τον αποκαλούμενο «νόμο του Godwin», βάσει του οποίου όσο περισσότερο κρατάει μια συζήτηση στο Ίντερνετ, τόσο πιο πιθανό είναι να αναφερθεί κάποιος στους Ναζί και τον Χίτλερ

No comments:

Post a Comment