2019-10-21 13:54:21
Φωτογραφία για Τεχνητή Νοημοσύνη: Πώς οι αλγόριθμοι εισβάλλουν στη ζωή μας - Τι μας περιμένει στο μέλλον
Φανταστείτε μία αίθουσα δημοτικού σχολείου. Μέσα τα παιδιά φοράνε ειδικές συσκευές

στο κεφάλι τους. Οι αισθητήρες που βρίσκονται πάνω στη συσκευή ελέγχουν αν το παιδί προσέχει στο μάθημα, πόσες φορές κοιτάζει το βιβλίο του και αν αισθάνεται κουρασμένο. Τα δεδομένα φτάνουν αμέσως στον δάσκαλο, ο οποίος έχει σε μία οθόνη όλες τις πληροφορίες για τους μαθητές του. Όλα αυτά μάλιστα γίνονται εν γνώση των γονέων, οι οποίοι συμφωνούν απόλυτα με την παρακολούθηση των μικρών παιδιών, εκτιμώντας ότι αυτό θα βοηθήσει πάρα πολύ στην απόδοσή τους. Σας μοιάζουν τα παραπάνω σαν σενάριο επιστημονικής φαντασίας; Κι όμως πρόκειται για πραγματικότητα. Το συγκεκριμένο πρόγραμμα λειτουργεί σε πειραματικό στάδιο σε δημοτικά στην Κίνα και μας δείχνει με ποιον τρόπο η Τεχνητή Νοημοσύνη διεισδύει στη ζωή μας.

Πού βρισκόμαστε όμως όσον αφορά την Τεχνητή Νοημοσύνη; Πόσο κοντά είμαστε σε έναν κόσμο όπου τα μηχανήματα θα αυτενεργούν και θα αναπτύσσουν «δικές τους σκέψεις»; Ποια ηθικά ζητήματα προκύπτουν και πόσο προστατευμένοι είμαστε απέναντι σε πιθανούς κινδύνους;


Όλα αυτά τα ερωτήματα απασχόλησαν ειδικούς στον τομέα της AI (Artificial Intelligence), της Μηχανικής Μάθησης (Machine Learning) και της ασφάλειας του κυβερνοχώρου, οι οποίοι έλαβαν μέρος στο συνέδριο Kaspersky* Next που φέτος πραγματοποιήθηκε στη Λισαβόνα. Επιστήμονες και ερευνητές που βρίσκονται στην αιχμή της καινοτομίας αντάλλαξαν απόψεις και κατέθεσαν τις πλούσιες γνώσεις τους σχετικά με όλες τις τελευταίες τάσεις και ειδήσεις γύρω από τον θαυμαστό κόσμο που ανοίγεται μπροστά μας.

Αποφασίζουμε εμείς για όσα κάνουμε; Ή μήπως όχι;

Kriti Sharma, AI for Good Τα σύγχρονα ρομπότ μπορούν να κάνουν πράγματα που ούτε είχαμε διανοηθεί στο παρελθόν. Πόσο έτοιμοι είμαστε για το επόμενο βήμα; Και ποια ζητήματα προκύπτουν; Καλεσμένη του συνεδρίου ήταν η Kriti Sharma, που έφτιαξε το πρώτο της ρομπότ σε ηλικία 15 ετών και έχει ιδρύσει την οργάνωση AI for Good.

Έχετε σκεφτεί πόσες αποφάσεις πήρε αντί για εσένα σήμερα μία μηχανή; Ή πόσες από αυτές τις αποφάσεις βασίστηκαν στο φύλο σου ή το υπόβαθρο σου; Το πιο πιθανό είναι ότι δεν έχουμε αντιληφθεί ότι καθημερινά πολλές αποφάσεις δεν γίνονται στην πραγματικότητα από εμάς τους ίδιους, αλλά από αλγορίθμους. Για παράδειγμα τι θα δούμε στο Netflix πολλές φορές προκύπτει από αυτά που μας προτείνει η πλατφόρμα. Ή διαβάζουμε όσα μας φέρνει στο feed μας το Facebook.

Η Kriti Sharma εξήγησε ότι οι αλγόριθμοι χρησιμοποιούνται συνεχώς για να αποφασίζουν ποιοι είμαστε και τι θέλουμε. Προκύπτουν όμως διάφορα ζητήματα. Η Kriti Sharma επισήμανε για παράδειγμα ότι η πλειονότητα των ηλεκτρονικών βοηθών, όπως η Siri και η Alexa έχουν γυναικεία φωνή. Μήπως όμως με αυτόν τον τρόπο η τεχνολογία ενισχύει τα στερεότυπα; «Για σκεφτείτε τα παιδιά που μαθαίνουν να φωνάζουν διαταγές σε αυτές τις μηχανές με τη γυναικεία φωνή! Πρέπει να φτιάξουμε κανόνες και αυτό κάνουμε. Για παράδειγμα αν ο χρήστης μιλήσει άσχημα, η μηχανή να τον καλέσει στην τάξη ή αν αυτό συνεχιστεί να πάψει να απαντάει. Εν ολίγοις πρέπει να φτιάξουμε ένα κοινωνικό πρωτόκολλο στο οποίο να αντανακλώνται οι ηθικές μας αξίες» υπογράμμισε η Sharma.

Η αλήθεια είναι ότι οι ψηφιακοί βοηθοί έχουν γυναικείες φωνές, επειδή, όπως έδειξαν διάφορες μελέτες, οι άνθρωποι αισθάνονται πιο άνετα και οικεία με αυτές.

Ωστόσο απασχολεί τους ειδικούς τι μπορεί να γίνει για την καταπολέμηση της ανισότητας των φύλων στην AI. Μερικές από τις λύσεις που προκρίνονται είναι η χρήση φωνής ουδέτερης ως προς το φύλο ή ίσως και η δημιουργία ενός φύλου για ρομπότ και AI.

Ο κίνδυνος καραδοκεί...Το ποιος χρησιμοποιεί τη μηχανή και για ποιους λόγους, είναι καίριας σημασίας και αυτό είναι κάτι που το γνωρίζουμε όλοι. Ο David Jacoby, μέλος της Kaspersky GReAT, μίλησε για παράδειγμα για chat bots, AI και αυτοματοποιημένες απειλές. Οι περισσότεροι από εμάς διασκεδάζουμε πολλοί με τις εφαρμογές που αναγνωρίζουν το πρόσωπό μας και «πειράζουν» τα χαρακτηριστικά μας βάζοντας λουλούδια στο κεφάλι μας ή γυαλιά στα μάτια μας. Αυτό ονομάζεται face recognition. Τίποτε όμως δεν είναι τόσο αθώο όσο φαίνεται. Με τον καιρό, οι εφαρμογές αναγνώρισης προσώπου και φωνής θα μπορούσαν να στραφούν εις βάρος μας. Η τεχνολογία αυτή στα χέρια τρομοκρατών από διασκεδαστικό παιχνίδι μετατρέπεται σε φονικό όπλο. Για φανταστείτε ένα drone που θα διαθέτει face recognition και θα μπορεί να χρησιμοποιηθεί ως εκτελεστής! Φαινομενικά αστείες εφαρμογές, μπορεί να έχουν αποτελέσματα που ούτε να σκεφτούμε μπορούμε. David Jacoby, Kaspersky GReAT

Πειράματα με ρομπότ – Γιατί τα εμπιστευόμαστε περισσότερο;

Tony Balpaeme, καθηγητής Ρομποτικής στο πανεπιστήμιο της Γάνδης Ο Tony Balpaeme, καθηγητής Ρομποτικής στο πανεπιστήμιο της Γάνδης έχει πραγματοποιήσει με την ομάδα του μία σειρά πειραμάτων για τα οποία μίλησε στο Kaspersky Next. Ένα ενδιαφέρον συμπέρασμα που παρουσιάστηκε στο συνέδριο είναι ότι οι άνθρωποι φαίνεται να εμπιστεύονται τα ρομπότ περισσότερο από τους ανθρώπους.

Οι ερευνητές εξέτασαν για παράδειγμα αν είναι πιο εύκολο για ένα ρομπότ ή για έναν άνθρωπο να αποσπάσει ευαίσθητες πληροφορίες (ημερομηνία γέννησης, παιδική οδό ή πόλη, αγαπημένο χρώμα κλπ.) που θα μπορούσαν να χρησιμοποιηθούν για την επαναφορά κωδικών πρόσβασης. Το εντυπωσιακό είναι ότι τα ρομπότ αποδείχθηκαν πιο ικανά! Οι άνθρωποι δείχνουν να έχουν μεγαλύτερη εμπιστοσύνη σε ένα μηχάνημα νομίζοντας εσφαλμένα ότι πρόκειται για κλειστά συστήματα που θα πάρουν την πληροφορία και θα την κρατήσουν μέσα τους, ενώ συμβαίνει ακριβώς το αντίθετο.

Παρόμοια συμπεράσματα βγήκαν και από ένα ενδιαφέρον πείραμα που έδειξε πόσο πιο εύκολα οι άντρες της ασφάλειας μπορούν να επιτρέψουν την είσοδο σε φυλασσόμενο χώρο σε ένα χαριτωμένο ρομπότ, όταν εύκολα την αρνούνται σε ανθρώπους. Οι υπεύθυνοι βγάζουν πολύ εύκολα το συμπέρασμα ότι είναι αβλαβές, και αυτή είναι μία πραγματικότητα που μπορεί κάποιος να εκμεταλλευτεί.

Τα παιδιά επηρεάζονται περισσότερο Ο καθηγητής Tony Balpaeme παρουσίασε και μία εκδοχή του διάσημου πειράματος Asch με ρομπότ. Πρόκειται για το γνωστό κοινωνικό πείραμα της συμμόρφωσης, που στόχο έχει να δείξει πώς οι άνθρωποι συμμορφώνονται όταν συμμετέχουν σε ομάδα. Πρόκειται για ένα οπτικό τεστ. Δείχνεις μία γραμμή και δίπλα άλλες τρεις, εκ των οποίων η μία είναι ίδια σε μήκος με την πρώτη. Επειτα από συνεννόηση κάποιοι δίνουν την ίδια λάθος απάντηση για να διαπιστωθεί αν ο συμμετέχων θα επηρεαστεί και θα δώσει κι εκείνος λάθος αν και γνωρίζει τη σωστή προκειμένου να ανήκει στην ομάδα.

Στο πείραμα στο πανεπιστήμιο της Γάνδης, οι ερευνητές πήραν τρία ρομπότ και τα έβαλαν να δίνουν λάθος απαντήσεις. Οι ενήλικες δεν ακολούθησαν και επέμειναν στη σωστή απάντηση. Τα παιδιά από την άλλη παρασύρθηκαν. Προκύπτει δηλαδή ότι τα παιδιά νιώθουν κοινωνική πίεση από τα ρομπότ.

Τι μας περιμένει στο μέλλον

Ο Alexey Malanov μιλάει στο protothema.gr Είναι σημαντικό να ξεκαθαρίσουμε ότι Ισχυρή Τεχνητή Νοημοσύνη (Strong AI), δηλαδή μηχανές με στοιχεία ανθρώπινης νοημοσύνης και κοινής λογικής δεν έχουμε ακόμη. Θυμηθείτε τη δεκαετία του 1980 που βλέπαμε τον Ιππότη της Ασφάλτου να μιλάει με το αυτοκίνητό του τον Κιτ. Ο Κιτ μπορούσε να σκεφτεί, να απαντήσει, αντιδρούσε στον οδηγό σαν ένας κανονικός άνθρωπος. Σήμερα βρισκόμαστε στο 2019 και ακόμα δεν έχουμε φτάσει σε αυτό το επίπεδο. Πότε αναμένεται αυτό; Ο Alexey Malanov, ειδικός της Kaspersky σε θέματα malware μίλησε στο protothema.gr: «Οι προγνώσεις έρχονται από διάφορους επιστήμονες. Λένε ότι θα χρειαστούν περίπου 45 χρόνια για Ισχυρή τεχνητή Νοημοσύνη. Οι Ασιάτες μιλούν για 30 χρόνια, ίσως είναι αισιόδοξοι. Οι Αμερικανοί το θέτουν στα 70 χρόνια. Νομίζω ότι ακόμα απέχουμε από αυτό το σημείο και δεν μπορούμε να αντιμετωπίσουμε σοβαρά τις προγνώσεις. Για παράδειγμα πριν 50 χρόνια μας έλεγαν ότι στην εποχή που είμαστε τώρα θα έχει επιτευχθεί η πυρηνική σύντηξη. Τώρα λέμε ότι θα συμβεί σε 50 χρόνια από τώρα! Νομίζω ότι πιο γρήγορα θα είμαστε σε θέση να αλλάζουμε τα γονίδιά μας και το DNA μας για να κάνουμε πιο ισχυρούς τους εγκεφάλους μας, από ό,τι θα φτάσουμε στην Ai. Η γενετική μηχανική προχωράει πιο γρήγορα, εμείς στην Ισχυρή Τεχνητη Νοημοσύνη είμαστε στο μηδέν, επί της ουσίας δεν ξέρουμε ακόμα πώς θα το κάνουμε!».

Όταν ρωτήσαμε τον κ. Malanov αν υπάρχει κάτι που να τον ανησυχεί σχετικά με την Τεχνητή Νοημοσύνη απάντησε: «Με απασχολεί να έχουμε γρήγορα Ισχυρή Τεχνητή Νοημοσύνη. Φοβάμαι ότι θα πεθάνω και δεν θα τη δω (σ.σ. ο κ. Malanov είναι νέος σε ηλικία). Δεν με τρομάζει η AI και δεν νομίζω ότι τα ηθικά ζητήματα που θα προκύψουν θα είναι πιο σημαντικά από τα οφέλη που θα επιφέρει. Θα μας δώσει πιο πολλά από αυτά που θα μας πάρει. Αυτό που με ανησυχεί είναι περισσότερη η Αδύναμη Τεχνητή Νοημοσύνη (Weak Artificial Intelligence) που έχουμε τώρα και μπορεί να πέσει εύκολα θύμα χάκερ».

Περισσότερες φωτογραφίες

Eugene Kaspersky, ιδρυτής της εταιρίας

Συζήτηση: Γυναίκες και Τεχνολογία - Kaspersky NEXT Alexey Malanov, ειδικός της Kaspersky σε θέματα Malware

*Σχετικά με την Kaspersky

Η Kaspersky είναι μια παγκόσμια εταιρεία ψηφιακής ασφάλειας με έτος ίδρυσης το 1997. Η βαθιά πληροφόρηση απειλών και η τεχνογνωσία στον τομέα της ασφάλειας της Kaspersky μετατρέπονται συνεχώς σε λύσεις και υπηρεσίες ασφάλειας για την προστασία επιχειρήσεων, κρίσιμων υποδομών, κυβερνήσεων και καταναλωτών σε όλον τον κόσμο. Το ολοκληρωμένο χαρτοφυλάκιο ασφάλειας της εταιρείας περιλαμβάνει την προστασία τερματικών σημείων και μια σειρά εξειδικευμένων λύσεων και υπηρεσιών ασφάλειας για την καταπολέμηση εξελιγμένων και εξελισσόμενων ψηφιακών απειλών. Περισσότεροι από 400 εκατομμύρια χρήστες προστατεύονται από τις τεχνολογίες της Kaspersky και βοηθάμε 270.000 εταιρικούς πελάτες να προστατεύουν ό,τι είναι πιο σημαντικό για αυτούς.
anatakti
ΦΩΤΟΓΡΑΦΙΕΣ
ΜΟΙΡΑΣΤΕΙΤΕ
ΔΕΙΤΕ ΑΚΟΜΑ
ΣΧΟΛΙΑΣΤΕ
ΑΚΟΛΟΥΘΗΣΤΕ ΤΟ NEWSNOWGR.COM
ΣΧΕΤΙΚΑ ΑΡΘΡΑ
ΠΡΟΗΓΟΥΜΕΝΑ ΑΡΘΡΑ