Μετά από μόλις 24 ώρες η Microsoft κατέβασε από το διαδίκτυο την Tay μια εφαρμογή τεχνητής νοημοσύνης που μάθαινε από το Twitter.
Ο λόγος που σταμάτησε το project η Microsoft είναι γιατί ο τρόπος που μάθαινε δεν ήταν ο σωστός αφού μερικοί χρήστες βρήκαν τρόπο να κάνουν κακόβουλη χρήση της τεχνητής νοημοσύνης της Tay.
Έτσι μέσα σε 24 ώρες η Tay έδειξε φασιστική συμπεριφορά αλλά και σημάδια παιδοφιλίας, έτσι η Microsoft αναγκάστηκε να την κατεβάσει από το διαδίκτυο.
Η διάβρωση του χαρακτήρα της Tay από κακόβουλους χρήστες είναι ένα καλό παράδειγμα για τους γονείς ώστε πλέον να προσέχουν σε τι περιεχόμενο έχουν πρόσβαση τα παιδιά τους ώστε να μην παρασυρθούν σε ακραίες αντιλήψεις.
Ο λόγος που σταμάτησε το project η Microsoft είναι γιατί ο τρόπος που μάθαινε δεν ήταν ο σωστός αφού μερικοί χρήστες βρήκαν τρόπο να κάνουν κακόβουλη χρήση της τεχνητής νοημοσύνης της Tay.
Έτσι μέσα σε 24 ώρες η Tay έδειξε φασιστική συμπεριφορά αλλά και σημάδια παιδοφιλίας, έτσι η Microsoft αναγκάστηκε να την κατεβάσει από το διαδίκτυο.
Η διάβρωση του χαρακτήρα της Tay από κακόβουλους χρήστες είναι ένα καλό παράδειγμα για τους γονείς ώστε πλέον να προσέχουν σε τι περιεχόμενο έχουν πρόσβαση τα παιδιά τους ώστε να μην παρασυρθούν σε ακραίες αντιλήψεις.