Συνολικές προβολές σελίδας

Translate

Εμφάνιση αναρτήσεων με ετικέτα τεχνική νοημοσύνη. Εμφάνιση όλων των αναρτήσεων
Εμφάνιση αναρτήσεων με ετικέτα τεχνική νοημοσύνη. Εμφάνιση όλων των αναρτήσεων

07 Ιανουαρίου, 2025

ΣΤΟ FB ΘΑ ΜΙΛΑMΕ ΜΕ CHATBOTS ΝΟΜΙΖΟΝΤΑΣ ΟΤΙ ΕΙΝΑΙ ΦΙΛΟΣ ΜΑΣ ?



Προς ένα νέο υβριδικό κόσμο ανθρώπων και μηχανών Τεχνητής Νοημοσύνης – του Αντ. Μαυρόπουλου

ΑΠΟ ΗΜΕΡΟΔΡΟΜΟΣ Κυριακη 5 Ιανουαριου 2025

«Τα μεγάλα ψηφιακά μονοπώλια επιδιώκουν και προσπαθούν μεθοδικά να δημιουργήσουν ένα νέο υβριδικό κόσμο στον οποίο δεν θα είναι εύκολο..



«Τα μεγάλα ψηφιακά μονοπώλια επιδιώκουν και προσπαθούν μεθοδικά να δημιουργήσουν ένα νέο υβριδικό κόσμο στον οποίο δεν θα είναι εύκολο να ξεχωρίσεις αν επικοινωνείς και αλληλοεπιδράς με άνθρωπο ή με μηχανή. Θέλουν και προσπαθούν να επιβάλλουν έναν κόσμο στον οποίο οι μηχανές τους θα παίζουν τον καθοριστικό ρόλο στη ζωσα εμπειρία των ανθρώπων. Θέλουν έναν κόσμο που οι πολίτες θα συρρικνώνουν την ύπαρξη τους σε «χρήστες» και η κοινωνικοποίηση θα περιορίζεται εντός της μηχανής τους.».

Αντώνης Μαυρόπουλος*

Την προτελευταία μέρα του 2024, η εταιρεία Meta (Facebook) ανακοίνωσε πως εργάζεται μεθοδικά για να μετατρέψει τις πλατφόρμες της σε χώρους

όπου μια νέα γενιά chatbots θα αλληλεπιδρούν συστηματικά με τους σχεδόν 3 δις χρήστες. Τα chatbots είναι προγράμματα λογισμικού μεταμφιεσμένα σε «χρήστες» που λειτουργούν αυτόματα με βάση εντολές από διαφημιστικές εταιρείες ή και από τις ίδιες της πλατφόρμες. Σύμφωνα με τις ανακοινώσεις της εταιρείας, τα νέα chatbots, εξοπλισμένα με τις δυνατότητες της παραγωγικής τεχνητής νοημοσύνης, θα έχουν βιογραφικό, φωτογραφία και θα κλωνοποιούν συγκεκριμένες προσωπικότητες και συμπεριφορές χρηστών που οι αλγόριθμοι θα κρίνουν ως ελκυστικές για τους χρήστες, στοχεύοντας ειδικά στο πιο νεανικό κοινό που περνάει πολλές ώρες στις πλατφόρμες. Τα επόμενα χρόνια, η Meta στοχεύει να αξιοποιήσει την τεχνητή νοημοσύνη για να ενισχύσει την «αφοσίωση» των χρηστών της πλατφόρμας του Facebook. Σε απλά ελληνικά αυτό σημαίνει να τους κρατάει περισσότερο χρόνο εντός της πλατφόρμας και να αντλεί ακόμα περισσότερες και ποιοτικά καλύτερες πληροφορίες για κάθε χρήστη.

Δεν πρόκειται φυσικά για κεραυνό εν αιθρία. 
Είναι σε όλους γνωστό ότι στα Μέσα Κοινωνικής Δικτύωσης (ΜΚΔ) υπάρχουν εκατοντάδες χιλιάδες, αν όχι πολλά εκατομμύρια, chatbots που μιμούνται την ανθρώπινη συμπεριφορά, ποστάρουν κείμενο και φωτογραφίες αλλά και αλληλεπιδρούν με άλλους χρήστες. Προσθέστε σε αυτά και τον τεράστιο αριθμό ψεύτικων λογαριασμών (fake accounts) που εξυπηρετούν διαφημιστικούς σκοπούς, στοχεύουν στην υφαρπαγή πληροφοριών ή απλά είναι αναμεταδότες στοχευμένης προπαγάνδας. Για να υπάρχει μια αίσθηση των μεγεθών, το Facebook το τελευταίο τρίμηνο του 2023 διέγραψε 691 εκατομμύρια λογαριασμούς, χωρίς βεβαίως να γνωρίζουμε πόσα και τι ιδιοκτησίας chatbots περιλαμβάνονται σε αυτό τον αριθμό. Μπορούμε όμως να είμαστε βέβαιοι ότι τα chatbots της ίδιας της πλατφόρμας παραμένουν ενεργά. Η διαγραφή εκατοντάδων εκατομμυρίων λογαριασμών δεν έχει τόσο σαν στόχο να προστατέψει τους χρήστες όσο να περιορίσει τα ζιζάνια στον κήπο του Facebook και να επιτρέψει στα δικά του μέσα να κάνουν τη δουλειά τους ανεμπόδιστα: να παρακολουθούν διαρκώς τους χρήστες, χωρίς να πρέπει να ψάχνουν ποιοι είναι άνθρωποι και ποιοι όχι και να εμπορευματοποιούν κατ’ αποκλειστικότητα τις πληροφορίες που συστηματικά συσσωρεύουν για κάθε χρήστη.

Μια πρόσφατη επιστημονική δημοσίευση επιβεβαιώνει τον τεράστιο ρόλο που παίζουν οι στρατιές των chatbots. Τα chatbots όχι μόνο κάνουν like η βάζουν emojis αλλά, πλέον, με την υποστήριξη της παραγωγικής τεχνητής νοημοσύνης συμμετέχουν και σε διαλόγους με πραγματικούς χρήστες. Ο ρόλος των bots στην ταχύτατη διασπορά ψευδών ειδήσεων και αναξιόπιστων άρθρων, εικόνων και πληροφοριών είναι πλέον καλά τεκμηριωμένος. Οι χρήστες των ΜΚΔ πρέπει να γνωρίζουν ότι στις περισσότερες των περιπτώσεων τα bots, με την υποστήριξη των αλγόριθμων, διαμορφώνουν τις τάσεις και συχνά επιβάλλουν το κλίμα στα ΜΚΔ. Και όπως έχει αναλυθεί συστηματικά, αυτή η αλληλεπίδραση έχει σημαντικές επιπτώσεις και στη συμπεριφορά των ανθρώπων – χρηστών στα ΜΚΔ.


Σε αυτό το πλαίσιο, πρέπει να εντοπίσουμε τα νέα στοιχεία που βάζουν στο τραπέζι οι ανακοινώσεις της Meta. Ποια είναι αυτά;

Πρώτον, ότι με τη χρήση της παραγωγικής τεχνητής νοημοσύνης, θα είναι πλέον πρακτικά αδύνατο να ξεχωρίσεις τους πραγματικούς χρήστες από τους εικονικούς. Αντίθετα, η Meta επιδιώκει να μην είναι δυνατό να τους ξεχωρίσεις. Ο αντιπρόεδρος της Meta Connor Hayes δήλωσε ότι η εταιρεία έχει ήδη δημιουργήσει εκατοντάδες χιλιάδες χαρακτήρες, αν και οι περισσότεροι δεν είναι ακόμα διαθέσιμοι στους άλλους χρήστες. Ας σημειώσουμε εδώ ότι μόνο η ίδια η εταιρεία θα ξέρει επακριβώς ποιοι είναι εικονικοί χρήστες και ποιοι πραγματικοί άνθρωποι.

Δεύτερον, ότι με τις προγραμματισμένες από την εταιρεία και τους αλγόριθμους αλληλεπιδράσεις των εικονικών με τους πραγματικούς χρήστες η Meta στοχεύει στην ανάπτυξη βαθύτερων σχέσεων, με συναισθηματικό, γνωστικό αλλά και χρηστικό περιεχόμενο μεταξύ bots και ανθρώπων. Δεν είναι καθόλου τυχαίο ότι οι πρώτες δοκιμαστικές προσπάθειες, οι περισσότερες εκ των οποίων πρόσφατα αποσύρθηκαν από το Facebook, περιλάμβαναν την Liv που συστήνονταν ως «περήφανη μαύρη queer μητέρα 2 παιδιών» και τον Carter που ήταν relationship coach και ζητούσε να του στείλουν μηνύματα για να δώσει βοήθεια σε θέματα πρώτου ραντεβού και σχέσεων. Ο πραγματικός στόχος πίσω από αυτή την επιδίωξη είναι η βαθύτερη και πιο στοχευμένη αλίευση πληροφοριών για κάθε χρήστη (το βασικό εμπόρευμα του Facebook). Για παράδειγμα, αν κάποιος άνθρωπος αναπτύξει μια σχέση με κάποιον εικονικό χρήστη (ενδεχομένως και εν αγνοία του ανθρώπου ότι πρόκειται περί εικονικού χρήστη) φανταστείτε πόσες πληροφορίες μπορεί να αντληθούν από τον άνθρωπο με τη μορφή ενός απλού διαλόγου, δημόσιου η ιδιωτικού! Δεν πρέπει να υπάρχει καμία αμφιβολία ότι αυτή η προσπάθεια της Meta, που εφόσον πετύχει θα αντιγραφεί ταχύτατα από όλους, θα επιδεινώσει ακόμα περισσότερο τα φαινόμενα εθισμού και τις σχετικές προβληματικές συμπεριφορές που εκπηγάζουν από την προσπάθεια των πλατφορμών να κρατάνε τους χρήστες «αιχμάλωτους» εντός του εικονικού τους περιβάλλοντος, ιδιαίτερα για τους εφήβους που όπως όλα δείχνουν επιλέγουν συνειδητά πολλές φορές τη σχέση με «φίλους» – παράγωγα της τεχνητής νοημοσύνης. .

Τρίτον, γίνεται πλέον ξεκάθαρο ότι σε ένα τέτοιο υβριδικό περιβάλλον συνύπαρξης ανθρώπων και bots, με τους χρήστες να αδυνατούν να γνωρίζουν αν συνδιαλέγονται με άνθρωπο ή πρόγραμμα λογισμικού, ανοίγονται τερατώδεις δυνατότητες μαζικής χειραγώγησης των χρηστών για τους σκοπούς που η εταιρεία κρίνει αναγκαίους ή για τους σκοπούς για τους οποίους πληρώνεται. Σκεφτείτε για παράδειγμα πόσο εύκολα κάποιο ανεπιθύμητο περιεχόμενο θα απορρίπτεται λόγω διαμαρτυρίας των εικονικών χρηστών, πόσο εύκολα θα μπορεί να χειραγωγηθούν τα σχόλια, θετικά ή αρνητικά, πόσο πιο εύκολα θα μπορούν να δημιουργηθούν πολιτικές, εμπορικές και κοινωνικές τάσεις. Πρόκειται για το όνειρο κάθε ολοκληρωτικού καθεστώτος: χιλιάδες μηχανές, υποδυόμενες τους ανθρώπους, θα μπορούν να χειραγωγούν τους κανονικούς ανθρώπους. Και γιατί αυτό το όνειρο γίνεται εφικτό; Γιατί οι περισσότεροι άνθρωποι, οικειοθελώς, φαίνεται να αποδέχονται τον υποβιβασμό τους από ολοκληρωμένες προσωπικότητες σε «χρήστες» που πρέπει να χωρέσουν στο καλούπι και το ρόλο που τους επιφυλάσσει η μηχανή – πλατφόρμα, και με τον τρόπο αυτό μπορούν εύκολα να γίνουν υποχείρια της μηχανής.

Ο σχεδιασμός της Meta σχετίζεται άμεσα με τον επόμενο γύρο εμπορευματοποίησης που έχουν βάλει στο κέντρο της προσοχής τους οι πλατφόρμες, τη λεγόμενη «οικονομία των προθέσεων». Σύμφωνα με μια πρόσφατη μελέτη του Πανεπιστημίου του Cambridge τα νέα εργαλεία τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν για να χειραγωγήσουν το διαδικτυακό κοινό στη λήψη αποφάσεων – από το τι να αγοράσετε μέχρι ποιον να ψηφίσετε. Η μελέτη ρίχνει φως στην αναδυόμενη νέα αγορά για «ψηφιακά σήματα πρόθεσης» όπου bots εξοπλισμένα με τεχνητή νοημοσύνη κατανοούν, προβλέπουν και χειραγωγούν τις ανθρώπινες προθέσεις και πωλούν αυτές τις πληροφορίες σε εταιρείες που μπορούν να επωφεληθούν από αυτό. Ένα αρκετά πιθανό σενάριο, σύμφωνα με τους ερευνητές του Cambridge, είναι η δυναμική αλληλεπίδραση bots, σε πραγματικό χρόνο, με χρήστες με στόχο να εντοπίσουν την αμέσως επόμενη κίνηση (πρόθεση) του χρήστη όπως π.χ. να ψάξει για κάποιο βιβλίο ή να κάνει κράτηση σε κάποιο εστιατόριο. Στη συνέχεια, τα μοντέλα τεχνητής νοημοσύνης, επίσης σε πραγματικό χρόνο, θα θέσουν στη διάθεση διαφημιστών και επιχειρήσεων πακέτα «προθέσεων» χρηστών. Με τον τρόπο αυτό η διαφήμιση είναι στοχευμένη όχι μόνο στο προφίλ του χρήστη, όπως ήδη γίνεται στις πλατφόρμες, αλλά και στο χρόνο απόφασης του χρήστη.

Είναι ξεκάθαρο ότι το θέμα που ανοίγει από όλα τα προαναφερθέντα αποτελεί το κεντρικό θέμα της επόμενης δεκαετίας. Τα μεγάλα ψηφιακά μονοπώλια – πλατφόρμες επιδιώκουν και προσπαθούν μεθοδικά να δημιουργήσουν ένα νέο υβριδικό κόσμο στον οποίο δεν θα είναι εύκολο να ξεχωρίσεις αν επικοινωνείς και αλληλεπιδράς με άνθρωπο ή με μηχανή. Θέλουν και προσπαθούν να επιβάλλουν έναν κόσμο στον οποίο οι μηχανές τους θα παίζουν τον καθοριστικό ρόλο στη ζωσα εμπειρία των ανθρώπων. Θέλουν έναν κόσμο που οι πολίτες θα συρρικνώνουν την ύπαρξη τους σε «χρήστες» και η κοινωνικοποίηση θα περιορίζεται εντός της μηχανής τους. Το Facebook, με όσα ανακοίνωσε, μας προϊδεάζει και προετοιμάζει για έναν υβριδικό κόσμο που θα παράγει διαρκώς όλο και περισσότερα δεδομένα για εμπορευματοποίηση αρμέγοντας όλο και περισσότερο τους χρήστες μέσω της προσφοράς διασκέδασης, «φίλων» και εθιστικού περιεχομένου.

Αν ακόμα δεν είναι σαφής η μεγάλη εικόνα, σκεφτείτε μια μεγάλη, παγκόσμια φάρμα δισεκατομμυρίων αγελάδων που ταΐζονται συστηματικά, με τροφές που επιλέγουν οι ιδιοκτήτες – διαχειριστές της φάρμας, για να παράγουν όσο γίνεται περισσότερο γάλα, το οποίο στη συνέχεια οι ιδιοκτήτες – διαχειριστές το πουλούν στις αγορές. Βάλτε τώρα στη θέση των αγελάδων τους χρήστες, που ταΐζονται με περιεχόμενο που επιλέγει ο αλγόριθμος για να παράγουν διαρκώς δεδομένα και θα έχετε μια καλή εικόνα για το τι είναι το Facebook ήδη. Και σκεφτείτε τώρα ότι η εισαγωγή εκατομμυρίων προφίλ τεχνητής νοημοσύνης που προγραμματίζεται θα είναι ταυτόχρονα το μπούκωμα με περισσότερη και καλύτερη τροφή (για περισσότερο γάλα) και η αυτόματη μηχανή αρμέγματος δεδομένων μαζί.

Ο πραγματικός κίνδυνος από την τεχνητή νοημοσύνη και την ανεξέλεγκτη εξάπλωση της σε όλες τις πλευρές της ζωής μας δεν είναι στο απώτερο μέλλον, δεν αφορά τα ρομπότ που θα κυριαρχήσουν στους ανθρώπους στο μέλλον, δεν σχετίζεται με την επίτευξη της λεγόμενης Γενικής Τεχνητής Νοημοσύνης η οποία θα φτιάξει μηχανές που θα μπορούν να σκέφτονται και να συμπεριφέρονται ακριβώς όπως οι άνθρωποι. 
Ο μεγάλος κίνδυνος είναι μπροστά στα μάτια μας, εδώ και τώρα: να αποδεχθούμε ένα μοντέλο του κόσμου στο οποίο η ψηφιακή εκδοχή της ζωής, δηλαδή ένα περιορισμένο μοντέλο της πραγματικότητας, θα είναι η πραγματικότητα καθαυτή. 
Να αφήσουμε μια χούφτα εταιρείες να φέρουν τον κόσμο στα μέτρα τους και να μάθουμε και εμείς να τον μετράμε με τα δικά τους μέτρα. Δεν χρειάζεται καθόλου η Γενική Τεχνητή Νοημοσύνη για αυτό. Ο συνδυασμός της υπαρκτής τεχνητής νοημοσύνης με τη θρησκεία της Silicon Valley και τις αδηφάγες αγορές που ψάχνουν διαρκώς για νέα πεδία εμπορευματοποίησης είναι παραπάνω από επαρκής συνθήκη. Η μόνη λύση είναι να μεταφέρουμε τη συζήτηση, τη ζωή, τις αλληλεπιδράσεις μας στον πραγματικό χώρο και χρόνο και να περιθωριοποιήσουμε τα ψηφιακά υποκατάστατα που μας προσφέρονται. Η λύση στα νέα προβλήματα που δημιουργεί η τεχνητή νοημοσύνη δεν θα βρεθεί μπροστά στις οθόνες, αλλά έξω και πέρα από αυτές.

ΥΓ1: Ένα συμπέρασμα που μάλλον εύκολα προκύπτει από όσα γράφτηκαν είναι ότι η υπαρκτή Τεχνητή Νοημοσύνη είναι ένα ελεγχόμενο επιχειρηματικό οικοσύστημα και όχι εργαλείο προς πάσα χρήση, όπως συχνά λέγεται. Υπό την έννοια αυτή, μας ανοίγει παράθυρα σε έναν νέο κόσμο αλλά οι κλειδοκράτορες φροντίζουν να μας κλείσουν κάθε πόρτα που οδηγεί σε αυτόν.

ΥΓ2: Σκεφτείτε και κρίνετε πόσο αξίζουν τα πρόσφατα μέτρα που ανακοίνωσε η ελληνική κυβέρνηση για τον περιορισμό της έκθεσης εφήβων στα ΜΚΔ μπροστά στο σχεδιασμό που επίσημα ανακοίνωσε το Facebook.

*Ο Αντώνης Μαυρόπουλος είναι σύμβουλος κυκλικής οικονομίας και συγγραφέας. Το πρόσφατο βιβλίο του με τίτλο «Τεχνητή Νοημοσύνη – Άνθρωπος, Φύση, Μηχανές» κυκλοφορεί από τις εκδόσεις Τόπος.


06 Φεβρουαρίου, 2024

Ο Πελετίδης για την ΤεχνιΤή Νοημοσύνη #ChatGPT



Από Konstantinos Mpourxas:
ΚΩΣΤΑΣ ΠΕΛΕΤΙΔΗΣ Πάνω από την Τεχνητή στέκεται η Ανθρώπινη Νοημοσύνη
Έχει ανοίξει πολύ μεγάλη συζήτηση το τελευταίο διάστημα, γύρω από τα οφέλη και τους κινδύνους της εισαγωγής και εφαρμογής της Τεχνητής Νοημοσύνης στην παραγωγική δραστηριότητα.
Αρχικά, υπάρχει διάχυτη ανησυχία για μαζική απώλεια εκατομμυρίων θέσεων εργασίας σε όλο τον κόσμο, με συνεπακόλουθη πτώση στα κέρδη των επιχειρήσεων, καθώς είναι γνωστό ότι τα κέρδη βγαίνουν από τη «ζωντανή» εργασία. Αυτό το γνωρίζουν πολύ καλά οι ιδιοκτήτες των μονοπωλιακών ομίλων, γι’ αυτό άλλωστε και υπήρξαν πρωτοβουλίες καπιταλιστών για «φρένο» στην έρευνα και την εξέλιξη των προϊόντων τεχνητής νοημοσύνης, οι οποίες προσυπογράφονταν από ονόματα της τεχνολογικής βιομηχανίας όπως ο Έλον Μασκ, ιδιοκτήτης της Tesla και ο Στιβ Βόζνιακ, συνιδρυτής της Apple. Φυσικά, αυτές οι πρωτοβουλίες δεν ευοδώθηκαν, καθώς δεν μπορεί να γίνει τεχνητή παύση στον καπιταλιστικό ανταγωνισμό, σε συνθήκες μάλιστα που η τεχνητή νοημοσύνη έχει τεράστια οικονομική και γεωστρατηγική σημασία.
Όμως, για να απαντήσουμε στο ερώτημα για την ωφέλεια της τεχνητής νοημοσύνης, απ’ τη σκοπιά των εργαζομένων και όχι απ’ τη σκοπιά των κερδών των λίγων, πρέπει να θέσουμε στο επίκεντρο τις σημερινές σχέσεις παραγωγής, καθώς απ’ αυτές πηγάζουν οι υπαρκτοί κίνδυνοι. Κάθε τεχνολογία σήμερα, αντί να αξιοποιείται για τη βελτίωση της ζωής του λαού, για τη συνολική μείωση του εργάσιμου χρόνου, καθίσταται εργαλείο ενάντια στους εργαζόμενους, αφενός πετώντας χιλιάδες και εκατομμύρια απ’ αυτούς στην ανεργία, αφετέρου μέσω της χρήσης της για σκοπούς που δεν συνάδουν με τις σύγχρονες ανάγκες της κοινωνίας. Πιο χαρακτηριστικό παράδειγμα, αποτελεί η εισαγωγή και της τεχνητής νοημοσύνης στην τεχνολογία των οπλικών συστημάτων. Δεν είναι μάλιστα τυχαίο ότι οι εταιρείες των οποίων η τεχνολογία έχει εισαχθεί σε στρατιωτικά συστήματα, π.χ. από τις ουκρανικές δυνάμεις στον πόλεμο με τη Ρωσία, ήταν από τους πολέμιους της παύσης στην έρευνα της τεχνητής νοημοσύνης.
Επιπλέον, τη συζήτηση απασχολεί ιδιαίτερα η εφαρμογή της τεχνητής νοημοσύνης σε εφαρμογές όπως το ChatGPT, δηλαδή σε διαλογικά γλωσσικά μοντέλα. Πρόκειται επί της ουσίας για εφαρμογές που δίνουν, ανάμεσα στα άλλα, έτοιμες απαντήσεις σε ερωτήματα, αλληλεπιδρώντας με τον άνθρωπο με μορφή διαλόγου, καθώς επίσης έχουν την ικανότητα να φέρουν εις πέρας μια σειρά λειτουργίες, όπως η σύνταξη κειμένων κατά παραγγελία, ακόμα και ακαδημαϊκών εργασιών.
Η συζήτηση που διεξάγεται γύρω από την «αμεροληψία» αυτών των εφαρμογών, γύρω απ’ το αν θα δίνουν στο χρήστη έτοιμη «την καλύτερη πληροφορία», πρέπει να προσεγγιστεί πάλι απ’ τη σκοπιά του ποιος έχει στα χέρια του, στην ιδιοκτησία του, την πληροφορία, ακόμα και την ίδια τη γνώση, καθώς και εάν έχει συμφέρον να την μεταφέρει αμερόληπτα και αντικειμενικά στο λαό.
Οι ιδιοκτήτες των ομίλων της επικοινωνίας και της ενημέρωσης, συνολικά η αστική τάξη, έχει κάθε συμφέρον να τροφοδοτεί το λαό με γνώσεις και πληροφορίες που απηχούν τα συμφέροντά της. Είναι χαρακτηριστική η τεραστίου μεγέθους προπαγάνδα που λαμβάνει χώρα τους τελευταίους μήνες, για να δικαιολογηθεί η ισραηλινή επέμβαση στη Λωρίδα της Γάζας, για να συκοφαντηθεί η ένοπλη αντίσταση του Παλαιστινιακού λαού. Ας αναρωτηθούμε τι θα απαντούσε μια τέτοια εφαρμογή, αν της θέταμε το ερώτημα, ποιος ευθύνεται για τον πόλεμο του Ισραήλ με την Παλαιστίνη…
Αντίστοιχα είναι τα πράγματα στο ζήτημα της αξιοποίησης της τεχνητής νοημοσύνης στην κρατική διοίκηση, ένα απ’ τα ειδικότερα θέματα που απασχολούν και την παρούσα έκδοση. Η τεχνητή νοημοσύνη θα έρθει να διαχειριστεί αιτήματα και να συμβάλλει στην οργάνωση πόρων και υπηρεσιών, σε ένα δεδομένο περιβάλλον υποστελέχωσης και υποχρηματοδότησης. Η εισαγωγή της δεν θα αλλάξει τις αντιλαϊκές στρατηγικές κατευθύνσεις περικοπής υπηρεσιών και έργων προς όφελος του λαού. Αντίθετα, θα κάνει πιο αποτελεσματική τη διοίκηση για λογαριασμό των επιχειρηματικών ομίλων.
Σε κάθε περίπτωση, πάνω απ΄ την τεχνητή νοημοσύνη, στέκεται η ανθρώπινη νοημοσύνη, η οποία σχεδιάζει, κατασκευάζει, κρίνει την απόδοση κάθε τεχνολογικού επιτεύγματος.
 Η τεχνολογία, όπως και κάθε επίτευγμα του χεριού και του πνεύματος του εργαζόμενου ανθρώπου, υπάρχει η δυνατότητα να μην χρησιμοποιούνται εναντίον του, αλλά να μπαίνουν στην υπηρεσία ολόκληρης της κοινωνίας. Γι’ αυτό χρειάζεται αγώνας, ώστε να κατακτήσουμε την κοινωνική συγκρότηση που θα λειτουργεί προς όφελος της πλειοψηφίας.
Ο Κώστας Πελετίδης είναι Ιατρός, Δήμαρχος Πατρέων.
https://www.symboulos.gr/.../%ce%a0%ce%ac%ce%bd%cf%89.../...


Ελενη Μαρκακη:
Από περιέργεια έβαλα το ερώτημα που αναφέρει ο σ. Πελετίδης:
''ποιος ευθύνεται για τον πόλεμο του Ισραήλ με την Παλαιστίνη?''
...και η απάντηση του ChatGPT:

Η ευθύνη για τον πόλεμο μεταξύ του Ισραήλ και της Παλαιστίνης είναι ένα σύνθετο και διεπιπεδαμένο θέμα που δεν μπορεί να απαντηθεί με απλό τρόπο. Οι πόλεμοι και οι συγκρούσεις στην περιοχή έχουν βαθιές ιστορικές, πολιτικές, θρησκευτικές και κοινωνικές ρίζες.
Κατά τη διάρκεια των διαφόρων συγκρούσεων και πολέμων μεταξύ του Ισραήλ και της Παλαιστίνης, και άλλων εμπλεκομένων μερών, και οι δύο πλευρές έχουν αναλάβει μερίδιο ευθύνης. Πολλοί παράγοντες συμβάλλουν στη σύγκρουση, συμπεριλαμβανομένων των πολιτικών, των οικονομικών, των κοινωνικών και των ιστορικών παραγόντων. Οι διαφορές στις αντιλήψεις για την κατοχή γης, την ασφάλεια, τα ανθρώπινα δικαιώματα και την αυτοδιάθεση είναι επίσης καθοριστικές.
Συχνά, η εξεταστική ευθύνη απαιτεί προσοχή σε συγκεκριμένες περιόδους, γεγονότα και πολιτικές αποφάσεις. Οι διεθνείς προσπάθειες ειρήνευσης και διαμεσολάβησης είναι επίσης σημαντικές για την κατανόηση της δυναμικής της σύγκρουσης και των πιθανών διεξόδων. Επομένως, είναι δύσκολο να αποδοθεί αποκλειστική ευθύνη σε μία πλευρά ή σε έναν συγκεκριμένο παράγοντα.''

06 Απριλίου, 2018

Η ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΣΤΗΝ ΥΠΗΡΕΣΙΑ ΤΩΝ ΠΟΛΥΕΘΝΙΚΩΝ και ΤΟΥ ΠΟΛΕΜΟΥ ?!!

Βρήκαμε δύο άρθρα και σας τα παρουσιάζουμε: 

Επιστήμονες - Λαοί
Γρηγορείτε 


-Η τεχνητή νοημοσύνη πάει στον πόλεμο εν μέσω σφοδρών αντιδράσεων
Σχεδόν εξήντα επιστήμονες της τεχνητής νοημοσύνης και της ρομποτικής από 30 χώρες ανακοίνωσαν με ανοικτή επιστολή τους ότι προχωρούν σε μποϊκοτάζ εναντίον ενός κορυφαίου τεχνολογικού πανεπιστημίου της Νότιας Κορέας, που έκανε γνωστό ότι ξεκίνησεσυνεργασία με μια νοτιοκορεατική αμυντική εταιρεία για την ανάπτυξη αυτόνομων οπλικών συστημάτων.
Παράλληλα, χιλιάδες εργαζόμενοι της Google, μεταξύ των οποίων δεκάδες κορυφαίοι μηχανικοί της, υπέγραψαν μια άλλη επιστολή ενάντια στη συμμετοχή της εταιρείας σε πρόγραμμα του αμερικανικού Πενταγώνου, το οποίο χρησιμοποιεί την τεχνητή νοημοσύνη και μπορεί να αξιοποιηθεί για να κάνει ακόμη πιο ακριβή τα από αέρος πλήγματα των drones κατά επίγειων στόχων (που συχνά είναι άνθρωποι).

Αυτές είναι οι δύο πιο πρόσφατες αντιδράσεις ειδικών και μη ενάντια στην προοπτική η τεχνητή νοημοσύνη να ντυθεί στο χακί και να πάει να πολεμήσει. Οι αντιδράσεις αυτές έρχονται να προστεθούν στις ευρύτερες ανησυχίες ότι οι «έξυπνες» μηχανές θα αποκτήσουν υπερβολική δύναμη.
Το Προωθημένο Ινστιτούτο Επιστήμης και Τεχνολογίας της Κορέας (KAIST) και η εταιρεία αμυντικού εξοπλισμού Hanwha Systems, ένας από τους μεγαλύτερους κατασκευαστές οπλικών συστημάτων στη Νότια Κορέα, ανακοίνωσαν ότι δημιουργούν ένα κοινό κέντρο ερευνών για τη σύγκλιση της έρευνας στα πεδία άμυνας και τεχνητής νοημοσύνης.
Μεταξύ άλλων, όπως μεταδίδει το ΑΜΠΕ, στόχος είναι η ανάπτυξη «έξυπνων» και αυτόνομων συστημάτων διοίκησης και λήψης αποφάσεων, αλγορίθμων για μη επανδρωμένα υποθαλάσσια σκάφη, συστημάτων ανίχνευσης και αναγνώρισης κ.α.

Οι 59 ακαδημαϊκοί και άλλοι ειδικοί, με επικεφαλής τον Τόμπι Γουόλς του Πανεπιστημίου της Νέας Νότιας Ουαλίας στο Σίδνεϊ, δήλωσαν ότι αρνούνται να συνεργασθούν με το KAIST, να το επισκεφθούν ή να φιλοξενήσουν επισκέπτες από αυτό, προβάλλοντας τους φόβους τους ότι επιταχύνεται η κούρσα για την ανάπτυξη οπλικών συστημάτων με τη δική τους νοημοσύνη. Όπως αναφέρουν, «υπάρχουν πολλά σπουδαία πράγματα που μπορεί να κάνει κανείς με την τεχνητή νοημοσύνη για να σώσει ζωές», αλλά όχι αναπτύσσοντας αυτόνομα όπλα.

Το μποϊκοτάζ έρχεται λίγο πριν από συνάντηση του ΟΗΕ στη Γενεύη την επόμενη εβδομάδα σχετικά με τα αυτόνομα οπλικά συστήματα. Ήδη περισσότερες από 20 χώρες έχουν ζητήσει να υπάρξει καθολική απαγόρευση των ρομπότ που μπορούν να σκοτώνουν, ώστε να αποφευχθούν καταστάσεις τύπου «Εξολοθρευτής» το μέλλον. Μεταξύ άλλων, υπάρχουν ανησυχίες για την ικανότητα των φονικών ρομπότ να παίρνουν τις σωστές αποφάσεις την κρίσιμη στιγμή, να δρουν με πραγματική ακρίβεια και να διακρίνουν πάντα τον φίλο από τον εχθρό.
Η επιστολή των ειδικών κάνει λόγο για «όπλα τρόμου» που θα «επιτρέψουν να διεξάγεται ο πόλεμος πολύ πιο γρήγορα και σε κλίμακα μεγαλύτερη από κάθε άλλη φορά».
Ο πρόεδρος του KAIST Σουνγκ-Τσουλ Σιν, σύμφωνα με το πρακτορείο Ρόιτερς και τη «Γκάρντιαν», εξέφρασε τη λύπη του για το μποϊκοτάζ και διαβεβαίωσε ότι «το KAIST δεν έχει καμία πρόθεση να εμπλακεί στην ανάπτυξη θανατηφόρων αυτόνομων όπλων και φονικών ρομπότ». Πρόσθεσε ότι το πανεπιστήμιό του «δεν θα διεξάγει καθόλου ερευνητικές δραστηριότητες ενάντια στην ανθρώπινη αξιοπρέπεια, συμπεριλαμβανομένων των αυτόνομων όπλων χωρίς ουσιαστικό ανθρώπινο έλεγχο».

Μετά από αυτή τη δήλωση, παραμένει ασαφές κατά πόσο το μποϊκοτάζ θα συνεχισθεί. Όπως πάντως είπε ο Γουόλς, δεν είναι σαφές με ποιον τρόπο π.χ. θα υπάρξει ουσιαστικός ανθρώπινος έλεγχος σε ένα μη επανδρωμένο αυτόνομο υποβρύχιο που βρίσκεται βαθιά κάτω από την επιφάνεια της θάλασσας και δεν μπορεί να επικοινωνήσει με κάποιο κέντρο ελέγχου. «Δεν μπορούμε να αφήσουμε σε ένα μηχάνημα την απόφαση για το ποιός θα ζήσει και ποιός θα πεθάνει», είπε.
Η νοτιοκορεατική Dodaam Systems ήδη κατασκευάζει ένα πλήρως αυτόνομο αλλά στατικό ρομπότ μάχης, που μπορεί να πλήξει στόχους σε απόσταση έως τριών χιλιομέτρων. Ήδη έχει αγορασθεί, μεταξύ άλλων, από τα Ηνωμένα Αραβικά Εμιράτα και το Κατάρ, ενώ έχει δοκιμασθεί και στα σύνορα με τη Βόρεια Κορέα, αλλά η εταιρεία διαβεβαίωσε ότι χρειάζεται πρώτα ένας άνθρωπος να δώσει έγκριση για να εξαπολύσει το σύστημα φονικές επιθέσεις.

   Google
   
Στην περίπτωση της Google, η επιστολή που κυκλοφορεί από γραφείο σε γραφείο έχει συγκεντρώσει ήδη περισσότερες από 3.100 υπογραφές εργαζομένων της, σύμφωνα με τους «Τάιμς της Νέας Υόρκης».

Είναι άλλη μια ένδειξη για τη σύγκρουση ανάμεσα στους «ιδεαλιστές» της Σίλικον Βάλεϊ και τους «ρεαλιστές» του αμερικανικού στρατιωτικοβιομηχανικού συμπλέγματος. Πάντως, δεν συμμερίζονται όλοι οι υπάλληλοι της Google την άποψη ότι η τεχνητή νοημοσύνη δεν πρέπει να έχει στρατιωτικές εφαρμογές.

Και ασφαλώς ο ιδεαλισμός δεν έχει καμία σχέση με το Πεντάγωνο, όπου ο υπουργός -και πρώην στρατηγός- Τζιμ Μάτις έχει δηλώσει σαφώς ότι κεντρικός στόχος είναι να βελτιωθεί η φονικότητα του αμερικανικού στρατού.

Παραδοσιακά, η Google ενθαρρύνει τους εργαζομένους της να μιλάνε ανοιχτά, ακόμη και να διαφωνούν με τις πολιτικές της, κάτι που έχει συμβεί κατά καιρούς στο παρελθόν. Η νέα διαμαρτυρία αφορά τη συμμετοχή της εταιρείας στο στρατιωτικό πρόγραμμα Maven, που άρχισε το 2017 και έχει ως στόχο να βελτιώσει -με τη βοήθεια της τεχνητής νοημοσύνης- την ανάλυση και ερμηνεία των εικόνων των drones.

Η Google και το Πεντάγωνο αρνούνται ότι αυτό γίνεται για να επιλέγεται πιο εύκολα ένας ανθρώπινος στόχος από αέρος και για να αποφεύγεται η παράπλευρη απώλεια του λάθος θύματος. Οι εργαζόμενοι αντιτείνουν ότι η Google ρισκάρει να «τσουβαλιασθεί» μαζί με τις παραδοσιακές αμυντικές εταιρείες όπως η Raytheon και η General Dynamics, «κάτι που θα βλάψει ανεπανόρθωτα το όνομά της και την ικανότητα να ανταγωνίζεται για την προσέλκυση ταλέντων».

Αλλά καθώς άλλες μεγάλες τεχνολογικές εταιρείες όπως η Amazon και η Microsoft έχουν ήδη ανοίξει παρτίδες με το Πεντάγωνο, η διοίκηση της Google δύσκολα θα θελήσει να μείνει έξω από το κερδοφόρο παιγνίδι των αμυντικών προμηθειών.


Τεχνητή Νοημοσύνη Και Πόλεμος: Το Ζήτημα Της Αυτονομίας Των Οπλικών Συστημάτων





“Όταν οι άνθρωποι με ακούν να μιλώ γι’ αυτό (για την αυτονομία), αμέσως αρχίζουν να σκέφτονται το Skynet και τον Εξολοθρευτή, εγώ σκέφτομαι σε όρους του Iron Man… Μια μηχανή που βοηθάει τον άνθρωπο, ενώ ο άνθρωπος συνεχίζει να ελέγχει τα πάντα, καθώς η μηχανή τον κάνει πιο ισχυρό και πιο ικανό”.

~ Robert O. Work, αναπληρωτής Υπουργός Άμυνας των ΗΠΑ από το 2014 έως το 2017




Ημιαυτόνομο στρατιωτικό ρομπότ μάχης εδάφους (tracked military robot) 


Το βάρος της ραγδαίας ανάπτυξης της ανθρωπότητας έχει αποδειχθεί δυσβάσταχτο για τα ανθρώπινα χέρια. Όμως, τα τεχνολογικά επιτεύγματα καθιστούν την πορεία προς το μέλλον όσο το δυνατόν πιο απρόσκοπτη. Ένα από αυτά πρόκειται να αποτελέσει και η τεχνητή νοημοσύνη. Αν και βρίσκεται σε ερευνητικό στάδιο, έστω και τα ψήγματα των δυνατοτήτων της είναι εντυπωσιακά, προκαλώντας ελπίδα και φόβο. Η ανάπτυξη συστημάτων που έχουν την ικανότητα να ενεργούν χωρίς κάποια ανθρώπινη παρέμβαση είναι στο επίκεντρο της προσοχής της παγκόσμιας επιστημονικής κοινότητας.


Κατά τα τελευταία χρόνια η εφαρμογή σχετικών καινοτομιών απασχολεί και την πολεμική βιομηχανία. Οι συνθήκες που επικρατούν στο διεθνές σύστημα αποδεικνύουν συνεχώς πως ο εκσυγχρονισμός και η αύξηση της στρατιωτικής ισχύος παραμένουν ζητήματα κομβικής σημασίας. Παράλληλα, οι ασύμμετρες απειλές που αντιμετωπίζουν τα κράτη ενισχύουν την ανάγκη για μεγαλύτερη ταχύτητα, αντοχή και ακρίβεια στο πεδίο της μάχης. Τέλος, η έλλειψη πόρων αναδεικνύει την κρισιμότητα της μείωσης του επιχειρησιακού κόστους, και της αποτελεσματικότερης χρήσης του ανθρώπινου δυναμικού. Ως αποτέλεσμα, η αλλαγή της φύσης των σύγχρονων στρατιωτικών επιχειρήσεων δημιουργεί σταδιακά όλο και περισσότερα κίνητρα για την απόδοση μεγαλύτερου μεριδίου της πολεμικής διεργασίας στις “μηχανές”.


Εξίσου υπολογίσιμα είναι και τα εμπόδια προς την επίτευξη αυτού του στόχου. Η ανάπτυξη της τεχνητής νοημοσύνης απαιτεί μια απίστευτη και πολυεπίπεδη ώθηση σε τομείς όπως η ρομποτική και η πληροφορική, ώστε ο αντίστοιχος εξοπλισμός να λειτουργεί με ασφάλεια και αξιοπιστία σε σύνθετα, δυναμικά και αντιφατικά περιβάλλοντα. Επίσης, μπορεί να δημιουργηθούν προβλήματα εντός των “άκαμπτων” στρατιωτικών μηχανισμών, καθώς τα αυτόνομα οπλικά συστήματα δεν μπορούν να είναι πάντοτε συμβατά με το επαγγελματικό ήθος και τα ισχύοντα επιχειρησιακά παραδείγματα. Είναι, επίσης, λογικό η τεχνητή νοημοσύνη να συναντήσει νομικά κωλύματα λόγω των σχετικών υποχρεώσεων που απορρέουν από το Διεθνές Δίκαιο, και να προκαλέσει έντονες κοινωνικές αντιδράσεις. Τέλος, οι τεράστιες επενδύσεις που χρειάζεται είναι ικανές να “γονατίσουν” τον προϋπολογισμό ακόμη και των πιο ισχυρών οικονομιών. Παρ’ όλα αυτά, η ικανότητα και η επιμονή του ανθρώπου να ξεπεράσει τις παραπάνω δυσκολίες αυξάνεται θεαματικά κατά την τρέχουσα περίοδο.


Αυτονομία Και Σύγχρονα Οπλικά Συστήματα



 Αυτόνομο αμυντικό σύστημα εγκατεστημένο σε πυργίσκο (turret)


Μπορεί η ανάπτυξη μιας πολεμικής μηχανής που αντιλαμβάνεται, εκτιμά, αποφασίζει και εκτελεί από μόνη της να είναι κάτι “μακρινό”, αλλά η αυτονομία των οπλικών συστημάτων δεν αποτελεί κάτι πρωτόγνωρο. Ο βαθμός της ισχύουσας αυτονομίας των οπλικών συστημάτων είναι μερικός, και η υπάρχουσα τεχνητή νοημοσύνη περιορίζεται στην υποβοήθηση ορισμένων λειτουργιών. Σχεδόν όλες οι βαρυσήμαντες αυτόνομες ενέργειες εκτελούνται βάσει ενός πλάνου, κατόπιν άδειας και υπό τον άμεσο έλεγχο του ανθρώπου (human-in-the-loop), ή απλά υπό την εποπτεία του (human-on-the-loop). Διάφορες σχετικές τεχνολογικές καινοτομίες χρησιμοποιούνται κατά τη σύγχρονη εποχή.


Η πλειοψηφία αυτών των καινοτόμων συστημάτων αφορούν στην υποβοήθηση δυνατοτήτων όπως η κίνηση, η στόχευση και η διαχείριση κατάστασης. Για παράδειγμα, τα πιο σύγχρονα μη-επανδρωμένα αεροσκάφη (drones, πύραυλοι) μπορούν να ακολουθούν στόχους μέσω οπτικών και θερμικών σημάτων, διαθέτουν αυτόνομη πλοήγηση μέσω της αποθήκευσης συντεταγμένων, ή είναι ικανά να απογειώνονται και να προσγειώνονται αυτόματα. Επίσης, άρματα μάχης, υποβρύχια, αεροπλάνα και radar εντοπίζουν και αναγνωρίζουν στόχους, ή εξουδετερώνουν αυτόματα απειλές βάσει των διαστάσεών τους ή της ταχύτητάς τους, με τη χρήση της εκπομπής συχνοτήτων. Τέλος, ορισμένα οχήματα μπορούν να πραγματοποιήσουν εμπεριστατωμένη διάγνωση βλαβών, ενώ ένας νέος τύπος αρθρωτού robot είναι ικανός να αυτοεπισκευαστεί.


Υπάρχουν και πιο εξεζητημένα -αλλά, προφανώς, λιγότερο επιθετικά- συστήματα μερικής αυτονομίας, τα οποία σχετίζονται με την ανάπτυξη δυνατοτήτων όπως η νοημοσύνη. Για παράδειγμα, σύγχρονα ειδικά στρατιωτικά robot εντοπίζουν και αφοπλίζουν εκρηκτικούς μηχανισμούς μέσω αισθητήρων, ενώ διάφοροι ανιχνευτές (κίνησης, ραδιοσυχνοτήτων, πυροβολισμών) χρησιμοποιούνται για την ασφάλεια στρατοπέδων, συνόρων και αποθηκών οπλισμού. Επίσης, ορισμένα υποβρύχια, αλλά και αεροσκάφη έχουν τη δυνατότητα δημιουργίας τρισδιάστατων χαρτών μέσω υπερήχων, ενώ τα πιο προηγμένα αμυντικά συστήματα μπορούν να προτείνουν και να εφαρμόσουν αυτόματα αντίμετρα απέναντι σε απειλές όπως ένας εισερχόμενος πύραυλος. Τέλος, μεγάλο μέρος αυτών των συστημάτων εμπεριέχει και τη διάσταση της συλλογής και διαχείρισης τεράστιου όγκου ετερογενών δεδομένων (big data) για κατασκοπεία.
Οι Πηγές Πρωτοβουλιών Επί Της Αυτονομίας Των Οπλικών Συστημάτων

Οι σύγχρονες στρατιωτικές τεχνολογίες σπάνια προέρχονται μόνο από καθαρά κρατικές και στρατιωτικές ερευνητικές προσπάθειες. Οι ιδιωτικές εταιρίες, αλλά και τα πανεπιστήμια μπορούν να διαδραματίσουν έναν εξίσου σημαντικό ρόλο στη βασική και εφαρμοσμένη έρευνα επί οπλικών συστημάτων – ακόμη κι αν δεν ανήκουν στον κλάδο της πολεμικής βιομηχανίας. Βέβαια, όσον αφορά στην πειραματική ανάπτυξη αυτών των ερευνητικών προσπαθειών, οι κρατικοί στρατιωτικοί μηχανισμοί έχουν τον πρώτο λόγο.

Όσον αφορά στην ανάπτυξη τεχνητής νοημοσύνης στα οπλικά συστήματα, τόσο ο ιδιωτικός τομέας όσο και τα πανεπιστήμια δεν επιθυμούν να συμβάλλουν ουσιαστικά. Είναι σημαντικό να αναφερθεί ότι, στα πλαίσια μια δράσης του Future of Life Institute που ξεκίνησε το 2015, πλήθος προσωπικοτήτων από τον ακαδημαϊκό χώρο και τον σχετικό ερευνητικό κλάδο υπέγραψαν μια επιστολή που ζητά την απαγόρευση των αυτόνομων επιθετικών όπλων. Ορισμένες από αυτές τις προσωπικότητες είναι ο Stephen Hawking, ο Noam Chomsky, ο Elon Musk (διευθυντής της Tesla), ο Steve Wozniak (συνιδρυτής της Apple) και ο Peter Η. Norvig (διευθυντής έρευνας της Google).
Κατά της αυτονομίας των οπλικών συστημάτων είναι φυσικά και ένας συνασπισμός 61 εθνικών, περιφερειακών και διεθνών μη κυβερνητικών οργανισμών, με την ονομασία “Campaign to Stop Killer Robots”. Τέλος, όσον αφορά στους διεθνείς οργανισμούς, ο Οργανισμός Ηνωμένων Εθνών (ΟΗΕ) το 2016 δημιούργησε μια ειδική επιτροπή συζήτησης μεταξύ εμπειρογνωμόνων επί των θανατηφόρων αυτόνομων οπλικών συστημάτων (lethal autonomous weapon systems – LAWS), στα πλαίσια της σχετικής διεθνούς σύμβασης (United Nations Convention on Certain Conventional Weapons).

Κατά τη διάρκεια των διαβουλεύσεων στη συγκεκριμένη επιτροπή, η πλειοψηφία των εκπροσώπων των κρατών ισχυρίστηκε ότι θα ήταν παρορμητικό να απαγορευτούν προληπτικά τα LAWS, καθώς η διεθνής κοινότητα βρίσκεται ακόμα στην προσπάθεια κατανόησης των επιπτώσεων χρήσης τους.



Ομάδα μη-επανδρωμένων αεροσκαφών σε σχηματισμό σμήνους (swarming drones) 


Η σύγχρονη υπέρογκη αύξηση των κρατικών χρηματοδοτήσεων για έρευνα και ανάπτυξη αυτόνομων οπλικών συστημάτων αποτελεί την έμπρακτη απόδειξη αυτών των ισχυρισμών. Για παράδειγμα, οι Ηνωμένες Πολιτείες της Αμερικής σκοπεύουν να επενδύσουν 18 δισεκατομμύρια δολάρια εντός της περιόδου 2016-2020 για projects που αφορούν -μεταξύ άλλων- την ενίσχυση της διάδρασης μεταξύ ανθρώπου και μηχανής, την ανάπτυξη της ικανότητας μάθησης των μηχανών μέσω τεχνητής νοημοσύνης (machine learning, deep learning), και τη δημιουργία drones που κινούνται σε σχηματισμό σμήνους, πραγματοποιώντας συντονισμένες επιθέσεις. Η Ρωσία, παρά τις παρατηρήσεις που δέχεται συνεχώς από τον ΟΗΕ, σκοπεύει να επενδύσει 20 τρισεκατομμύρια ρούβλια εντός της περιόδου 2016-2025 για τη δημιουργία πολεμικών robot, αλλά και για την περαιτέρω έρευνα πάνω σε καινοτομίες όπως η αυτόνομη πλοήγηση. Η Κίνα, μέσω των δύο -αγνώστου κόστους- κρατικών της προγραμμάτων ανάπτυξης της ρομποτικής και της τεχνητής νοημοσύνης που θα συντρέχουν μέχρι το 2025, επικεντρώνεται στην ενίσχυση των δυνατοτήτων της στον τομέα των big data, του deep learning, καθώς και της ανάπτυξης “τεχνητών εγκεφάλων” (brain-like AI), ενώ η Ιαπωνία και η Νότια Κορέα στο ίδιο διάστημα θα επενδύσουν 1 δισεκατομμύριο και 840 εκατομμύρια δολάρια αντίστοιχα για έρευνα και ανάπτυξη robot. Εντός της Ευρώπης, το Ηνωμένο Βασίλειο θέτει ως προτεραιότητα τα αυτόνομα συστήματα, έχοντας επενδύσει σε αυτά τουλάχιστον 20 εκατομμύρια λίρες, η Γερμανία ενδιαφέρεται κυρίως για βιομηχανικά robot, επενδύοντας μέχρι στιγμής 15 δισεκατομμύρια ευρώ, ενώ η Ιταλία και η Γαλλία θα επενδύσουν 30 δισεκατομμύρια και 500 εκατομμύρια ευρώ αντίστοιχα για την ανάπτυξη αυτόνομων δυνατοτήτων σχετικών με big data και αισθητήρες (sensors) μέχρι το 2020. Τέλος, το Ισραήλ συνεχίζει να πρωταγωνιστεί στο εμπόριο αυτόνομων αμυντικών συστημάτων (όπως το Iron Dome Defence system), ενώ η Ινδία έχει εστιάσει στην ανάπτυξη διάφορων αυτόνομων οχημάτων και αεροσκαφών, ιδρύοντας ένα στρατιωτικό ερευνητικό κέντρο αφιερωμένο στη ρομποτική.


WRITTEN BY ΕΥΑΓΓΕΛΟΣ ΤΑΚΑΤΙΝΗΣ
PUBLISHED IN ΑΜΥΝΑ & ΑΣΦΑΛΕΙΑΤΕΧΝΟΛΟΓΙΑ & ΚΥΒΕΡΝΟΧΩΡΟΣ
LEAVE A REPLY
PERMALINK


Πηγές:

Boulanin, V. and Verbruggen, M. (2017). Mapping the Development of Autonomy in Weapon Systems.https://www.sipri.org/sites/default/files/2017-11/siprireport_mapping_the_development_of_autonomy_in_weapon_systems_1117_1.pdf
Brown, D. (2017). Russia’s ‘Star Wars’ combat suit is reportedly getting a nuclear-resistant watch.http://www.businessinsider.com/russias-star-wars-combat-suit-getting-a-nuclear-resistant-watch-2017-10
Byford, S. (2016). Google’s DeepMind defeats legendary Go player Lee Se-dol in historic victory.https://www.theverge.com/2016/3/9/11184362/google-alphago-go-deepmind-result
Field, M. (2017). Facebook shuts down robots after they invent their own language.http://www.telegraph.co.uk/technology/2017/08/01/facebook-shuts-robots-invent-language/
Hutchison, H. (2017). Russia says it will ignore any UN ban of killer robots. http://www.businessinsider.com/russia-will-ignore-un-killer-robot-ban-2017-11
Pellerin, C. (2016). Deputy Secretary: Third Offset Strategy Bolster America’s Military Deterrence.https://www.defense.gov/News/Article/Article/991434/deputy-secretary-third-offset-strategy-bolsters-americas-military-deterrence/
Rosen, A., Bender, J. and Macias, A. (2015). These are the 19 most game-changing weapons of the 21st century.http://www.businessinsider.com/21st-century-game-changing-weapons-2015-5?utm_content=buffer2fbfd&utm_medium=social&utm_source=facebook.com&utm_campaign=buffer-defense/#thaad-missiles-8
Spetalnick, M. and Stone, M. (2017). Exclusive – Game of Drones poised to boost unmanned exports.https://www.reuters.com/article/us-trump-effect-drones-exclusive/exclusive-game-of-drones-u-s-poised-to-boost-unmanned-aircraft-exports-idUSKBN1CG0F4
Tucker, P. (2017). What the CIA’s Tech Director wants from AI.http://www.defenseone.com/technology/2017/09/cia-technology-director-artificial-intelligence/140801/?oref=DefenseOneFB&utm_content=buffera686d&utm_medium=social&utm_source=facebook.com&utm_campaign=buffer
Tucker, P. (2017). Armed Ground Robots Could Join the Ukrainian Conflict Next Year.http://www.defenseone.com/technology/2017/10/armed-ground-robots-could-make-their-combat-debut-ukrainian-conflict-next-year/141677/
Tucker, P. (2017). The Future the US Military is Constructing: a Giant, Armed Nervous System.http://www.defenseone.com/technology/2017/09/future-us-military-constructing-giant-armed-nervous-system/141303/?oref=d-mostread 


Μοιραστείτε το: