
Πηγή φωτογραφίας: Pixabay.com
Είναι βέβαιο. Τα συστήματα τεχνητής νοημοσύνης μοιραία θα …τρακάρουν κάποια από τα αυτοκίνητά μας. Αυτό ωστόσο δεν σημαίνει ότι πρέπει να επιμείνουμε -όπως πολλοί, συμπεριλαμβανομένης της Κομισιόν, επιμένουν- ότι η τεχνητή νοημοσύνη θα πρέπει να είναι κάθε φορά ικανή να εξηγεί πώς κατέληξε στα συμπεράσματά της για κάθε σημαντική υπόθεση κι απόφασή της. Αυτό τουλάχιστον υποστηρίζει -σε άρθρο του στο Wired, που σίγουρα πολλοί θα θεωρήσουν αιρετικό και άλλοι τόσοι απόλυτα λογικό- ο David Weinberger, senior ερευνητής στο Harvard Berkman Klein Center για το Διαδίκτυο και την Κοινωνία.
Όπως λέει, το να απαιτείς από την τεχνητή νοημοσύνη να επεξηγεί κάθε φορά τις πράξεις της (“explicability” ο αγγλικός όρος στο κείμενο) ακούγεται μια χαρά, αλλά το να το πετύχεις ενδέχεται να απαιτήσει το να κάνεις την τεχνητή νοημοσύνη τεχνητά …ηλίθια. Λαμβανομένης δε υπόψη της υπόσχεσης για τα οφέλη της μηχανικής μάθησης (machine learning), το να υποβαθμίσουμε αυτή την τεχνολογία μπορεί να σημαίνει ότι αποδεχόμαστε το ενδεχόμενο να αποτύχουμε στη διάγνωση ασθενειών, να παραβλέψουμε σημαντικά αίτια της κλιματικής αλλαγής ή να περιορίσουμε τις δυνατότητες για το εκπαιδευτικό μας σύστημα (καθότι η τεχνητή νοημοσύνη υπόσχεται θετικές αλλαγές σε όλα αυτά τα πεδία).
Το machine learning, ιδίως το είδος που αποκαλείται βαθιά μάθηση (deep learning), μπορεί να αναλύσει δεδομένα σε χιλιάδες μεταβλητές, να τις “τακτοποιήσει” σε απίστευτα πολύπλοκες και ευαίσθητες συστοιχίες και φάσματα “ζυγισμένων” σχέσεων και στη συνέχεια να “τρέξει” όλες αυτές τις συστοιχίες σε νευρωνικά δίκτυα υπολογιστών (neural networks). Για να καταλάβουμε το αποτέλεσμα, ας πούμε ότι το σύστημα “σκέφτεται’ ότι υπάρχει 73% πιθανότητα να αναπτύξεις διαβήτη ή ότι υπάρχει 84% πιθανότητα ότι μια κίνηση στο σκάκι θα οδηγήσει στη νίκη -και αυτό το συμπέρασμα μπορεί να απαιτήσει την κατανόηση των σχέσεων μεταξύ χιλιάδων μεταβλητών μετά από επανειλημμένες διαδρομές σε τεράστια νευρωνικά δίκτυα. Ο εγκέφαλός μας, πολύ απλά, δεν μπορεί να συγκρατήσει τόση πληροφορία.
Γίνεται πολλή δουλειά, συναρπαστική δουλειά, προκειμένου τα αποτελέσματα του machine learning να γίνουν κατανοητά στον άνθρωπο. Για παράδειγμα, μερικές φορές μια επιθεώρηση μπορεί να δείξει ποιες μεταβλητές είχαν τελικά το μεγαλύτερο βάρος. Άλλες φορές γίνονται οπτικοποιήσεις των βημάτων της διαδικασίας, που μπορούν να μας δείξουν πώς το σύστημα κατέληξε στα συγκεκριμένα συμπεράσματα. Αλλά αυτό δεν είναι πάντα δυνατό. Οπότε μπορούμε είτε να σταματήσουμε να επιμένουμε πάντα στο να υπάρχουν εξηγήσεις (για τον τρόπο με τον οποίο λειτουργούν τα συστήματα τεχνητής νοημοσύνης) ή να παραιτηθούμε από τη δυνατότητα να παίρνουμε ίσως πάντα τα πιο ακριβή αποτελέσματα από τις μηχανές. Αυτό το δεύτερο μπορεί να μην είναι σημαντικό όταν το σύστημα δημιουργεί λίστες προτεινόμενων κινηματογραφικών ταινιών, αλλά είναι ζήτημα ζωής και θανάτου σε περιπτώσεις ιατρικών διαγνώσεων ή αυτοοδηγούμενων αυτοκινήτων, μεταξύ άλλων.
Διαβάστε το πολύ εκτενές και αναλυτικό άρθρο του David Weinberger στο Wired ΕΔΩ