Ημιαγωγοί, τεχνητή νοημοσύνη, κβαντικές τεχνολογίες και βιοτεχνολογίες: Επιτήρηση ζητάει η Κομισιόν

φώτο αρχείου
φώτο αρχείου Πνευματικά Δικαιώματα JOSEP LAGO/AFP or licensors
Από euronews with ΑΠΕ-ΜΠΕ
Κοινοποιήστε το άρθροΣχόλια
Κοινοποιήστε το άρθροClose Button

Τέσσερις κρίσιμοι τεχνολογικοί τομείς για την οικονομική ασφάλεια της ΕΕ - Η σύσταση της Κομισιόν - Εκδήλωση Σ. Κούλογλου στις Βρυξέλλες - «Τι αλλάζει στη ζωή μας η Τεχνητή Νοημοσύνη»

ΔΙΑΦΉΜΙΣΗ

Η Ευρωπαϊκή Επιτροπή παρουσίασε τέσσερις κρίσιμους τεχνολογικούς τομείς για την οικονομική ασφάλεια της ΕΕ (προηγμένους ημιαγωγούς, τεχνητή νοημοσύνη, κβαντικές τεχνολογίες και βιοτεχνολογίες), για τους οποίους συνιστά συνεχή παρακολούθηση, αξιολόγηση κινδύνου διαρροής της τεχνολογίας και προστασία από κράτη που χαρακτηρίζονται αντίπαλα.

Ειδικότερα, στη σύσταση που παρουσίασε σήμερα η Επιτροπή, υποβάλλει κατάλογο δέκα κρίσιμων τεχνολογικών τομέων, εκ των οποίων οι τέσσερις θεωρούνται πολύ πιθανό να παρουσιάσουν τους πιο ευαίσθητους και άμεσους κινδύνους σχετικά με την ασφάλεια της τεχνολογίας και τη διαρροή της. Οι τομείς αυτοί είναι οι εξής:

Προηγμένες τεχνολογίες ημιαγωγών (μικροηλεκτρονική, φωτονική, τσιπ υψηλής συχνότητας, εξοπλισμός κατασκευής ημιαγωγών).

Τεχνολογίες Τεχνητής Νοημοσύνης (υπολογισμός υψηλής απόδοσης, υπολογισμός νέφους και αιχμής, ανάλυση δεδομένων, όραση υπολογιστή, επεξεργασία γλώσσας, αναγνώριση αντικειμένων).

Κβαντικές τεχνολογίες (κβαντικοί υπολογιστές, κβαντική κρυπτογραφία, κβαντικές επικοινωνίες, κβαντική ανίχνευση και ραντάρ).

Βιοτεχνολογίες (τεχνικές γενετικής τροποποίησης, νέες γονιδιωματικές τεχνικές, γονιδιακή κίνηση, συνθετική βιολογία).

Η Επιτροπή συνιστά στα κράτη-μέλη να διεξάγουν αρχικά συλλογικές αξιολογήσεις κινδύνου για αυτούς τους τέσσερις τομείς, έως το τέλος του τρέχοντος έτους, συμπεριλαμβανομένης της διαβούλευσης με τον ιδιωτικό τομέα. Η Επιτροπή θα συνεργαστεί με τα κράτη-μέλη, μέσω των κατάλληλων φόρουμ εμπειρογνωμόνων, για την έναρξη των συλλογικών αξιολογήσεων κινδύνου για τους τέσσερις προαναφερθέντες τεχνολογικούς τομείς.

Υπό το φως αυτού του διαλόγου και της πρώτης εμπειρίας από τις αρχικές συλλογικές αξιολογήσεις κινδύνου, η Επιτροπή μπορεί να παρουσιάσει περαιτέρω πρωτοβουλίες σχετικά με το θέμα αυτό έως την άνοιξη του 2024.

Το αποτέλεσμα της λεπτομερούς συλλογικής αξιολόγησης του επιπέδου και της φύσης των κινδύνων που παρουσιάζονται μπορεί να χρησιμεύσει ως βάση για περαιτέρω συζήτηση σχετικά με την ανάγκη οποιωνδήποτε ακριβών και αναλογικών μέτρων για την προώθηση, τη συνεργασία ή την προστασία σε οποιονδήποτε από αυτούς τους τομείς τεχνολογίας.

Ο Επίτροπος αρμόδιος για την εσωτερική αγορά Τιερί Μπρετόν δήλωσε: «Πρέπει να παρακολουθούμε συνεχώς τις κρίσιμες τεχνολογίες μας, να αξιολογούμε την έκθεσή μας σε κινδύνους και -όπου και όταν χρειάζεται- να λαμβάνουμε μέτρα για τη διατήρηση των στρατηγικών μας συμφερόντων και της ασφάλειάς μας. Η Ευρώπη προσαρμόζεται στις νέες γεωπολιτικές πραγματικότητες, βάζοντας τέλος στην εποχή της αφέλειας και ενεργώντας ως πραγματική γεωπολιτική δύναμη».

«Τι αλλάζει στη ζωή μας η Τεχνητή Νοημοσύνη»

Η τεχνητή νοημοσύνη είναι παρούσα και είναι παντού. Ζούμε τις επιπτώσεις της στην καθημερινότητά μας, τις περισσότερες φορές υποδόρια. Θαυματουργές εφαρμογές στον τομέα της υγείας, άνοιγμα οριζόντων στην εκπαίδευση, υποδείξεις για τον καιρό και τη σοδειά στην υπηρεσία της γεωργίας, αυτόνομη οδήγηση για μείωση ατυχημάτων, προβλέψεις για την οικονομία ή τις φυσικές καταστροφές, χρήση στις δημόσιες υπηρεσίες κατά της γραφειοκρατίας, αλλά και «ξαφνικές» υποδείξεις για την καταναλωτική συμπεριφορά μας, ακόμη και για τις πολιτικές προτιμήσεις μας ενώ σερφάρουμε «αμέριμνοι» στο διαδίκτυο. Και πάνω από όλους μας κρέμεται η απειλή για τις διαρροές των προσωπικών δεδομένων μας. Ποιος θα τα χρησιμοποιήσει και πώς.

Τελικά η τεχνητή νοημοσύνη αποτελεί πρόοδο ή απειλή;

Αυτός ο προβληματισμός αναλύθηκε σε μία μεγάλη συζήτηση που πραγματοποιήθηκε στο Ευρωπαϊκό Κοινοβούλιο, με πρωτοβουλία του ευρωβουλευτή του ΣΥΡΙΖΑ-ΠΣ Στέλιου Κούλογλου, με θέμα «Τι αλλάζει στη ζωή μας η Τεχνητή Νοημοσύνη», στην οποία συμμετείχαν ερευνητές, πανεπιστημιακοί, άνθρωποι της αγοράς και δημοσιογράφοι.

Οι ομιλητές αναφέρθηκαν ιδιαίτερα στο νομοθετικό πλαίσιο που επιχειρεί να βάλει η Ευρώπη. Σύμφωνα με τη διαπραγματευτική θέση που υιοθέτησε το Ευρωπαϊκό Κοινοβούλιο τον Ιούνιο του 2023, το οποίο θεωρείται υπόδειγμα για ένα διεθνές πλαίσιο, η ΕΕ στον τομέα της τεχνητής νοημοσύνης επιδιώκει με άξονες την αριστεία και την εμπιστοσύνη να «ενισχύσει την έρευνα και τη βιομηχανία» αλλά και να παραμείνει «ανθρωποκεντρική» κατοχυρώνοντας «την ασφάλεια και τα θεμελιώδη δικαιώματα των πολιτών».

Ο άνθρωπος βάζει τα δεδομένα στη μηχανή.

Τις δύο όψεις, θετική και αρνητική, της τεχνητής νοημοσύνης ανέπτυξε πρώτη η Δέσποινα Μητροπούλου από το Διεθνές Πανεπιστήμιο Ελλάδας.

«Κάθε μοντέλο τεχνητής νοημοσύνης εξαρτάται από τα δεδομένα που έχει πάρει», σημείωσε. Και ο άνθρωπος είναι αυτός που βάζει τα δεδομένα. Η αξιοπιστία του είναι θέμα ανθρώπινης διαχείρισης και είναι κάτι που επανέλαβαν όλοι οι ομιλητές, σύμφωνα με την ίδια.

Ενδεικτικά ανέφερε τα οφέλη για την υγεία, για καλύτερη διάγνωση και θεραπεία, αλλά και τα λάθη διαγνώσεων που έχουν παρατηρηθεί όταν δεν ελήφθησαν επαρκή δείγματα.

Στην αυτόνομη οδήγηση μπορεί να προλαμβάνονται ατυχήματα, αλλά στην περίπτωση που συμβούν, ποια είναι η προτεραιότητα; Ο πεζός ή ο οδηγός και οι επιβάτες; Είναι κι αυτό θέμα προγραμματισμού.

Στην εκπαίδευση, όπως είπε, αν και μπορούμε να αξιοποιήσουμε έναν τεράστιο όγκο δεδομένων, η στήριξη στις πλατφόρμες μπορεί να μειώσει την κριτική σκέψη μας.

ΔΙΑΦΉΜΙΣΗ

Η δημοκρατία, επίσης, μπορεί να πληγεί εάν τροφοδοτούμαστε από το διαδίκτυο με παρόμοιες απόψεις με τις δικές μας που ενδέχεται να μας οδηγήσουν σε απομόνωση και παραπληροφόρηση.

Η βιομηχανία χωρίς την τεχνητή νοημοσύνη θα πεθάνει.

Ο Δημήτρης Τοκάνης, αρχιτέκτονας λογισμικού, μίλησε για τις εφαρμογές της τεχνητής νοημοσύνης στους υπολογιστές και την ιατρική.

Ξεκίνησε την ομιλία του με τη φράση: «Αν η βιομηχανία δεν εξελιχθεί στην τεχνητή νοημοσύνη, θα πεθάνει».

Ειδικά για την ιατρική, είπε ότι στο πλαίσιο ερευνητικού προγράμματος δοκιμάζεται ένα εργαλείο για την πρόβλεψη των καρδιαγγειακών κινδύνων σε τέσσερα στάδια-συλλογή κλινικών δεδομένων, ανάπτυξη αλγορίθμου, διαδικτυακή πλατφόρμα, πιλοτική εφαρμογή. Πρόκειται για διαδικασία που μπορεί να μας οδηγήσει στην εξατομικευμένη αντιμετώπιση και θεραπεία.

Ο Θεόδωρος Καρούνος, μέλος του ΔΣ του Οργανισμού Ανοιχτών Τεχνολογιών, ξεκίνησε με τη θετική τοποθέτηση ότι «η τεχνητή νοημοσύνη μειώνει το κόστος της διαχείρισης της πληροφορίας και της πρόσβασης στη γνώση» και πρέπει να χρησιμοποιηθεί για να αποκτήσουν οι άνθρωποι νέες ικανότητες και όχι να υποκατασταθούν από αυτήν τη διαδικασία.

ΔΙΑΦΉΜΙΣΗ

Αναφερόμενος στον ρόλο των ψηφιακών γιγάντων, τόνισε ότι ξέρουν το παιγνίδι πώς οι πλούσιοι γίνονται πλουσιότεροι με την εξαγορά μικρότερων εταιρειών και μίλησε ειδικότερα για τη Microsoft που ουσιαστικά εξαγόρασε την Open AI και ενσωμάτωσε το chat gpt στις υπηρεσίες της, αποκτώντας πλεονέκτημα στην αγορά.

Το θέμα είναι «ποιος ελέγχει την αγορά».

Στο πεδίο του δημόσιου τομέα, οι υπηρεσίες μπορούν να αυτοματοποιηθούν και να επωφεληθούν οι πολίτες «αν υπάρχει διαφάνεια». Αν δεν συμβαίνει αυτό, το κράτος μπορεί να επεξεργάζεται δεδομένα χωρίς να δίνει λογαριασμό.

Οι αλγόριθμοι πρέπει να ελέγχονται από ειδικούς, όπως π.χ. μία ανεξάρτητη Αρχή, για να διασφαλίζεται το δημόσιο συμφέρον.

Το θέμα, είπε καταλήγοντας ο κ. Καρούνος, είναι «ποιος ελέγχει την αγορά». Και αν η κακόβουλη χρήση των μέσων κοινωνικής δικτύωσης έχει συμβάλει στην πόλωση των κοινωνιών, στην περίπτωση της τεχνητής νοημοσύνης η ζημιά θα είναι επί 100.

Αυτό είναι ένα πολιτικό ζήτημα που πρέπει να απασχολήσει τα κόμματα και τα συνδικάτα.

ΔΙΑΦΉΜΙΣΗ

Στο τραπέζι της συζήτησης μπήκε και το θέμα των πνευματικών δικαιωμάτων, στην περίπτωση που η τέχνη παράγεται με διαδικασία τεχνητής νοημοσύνης. Το δίλημμα είναι εάν πρόκειται για αντιγραφή ή δημιουργία. Τα αμερικανικά δικαστήρια αποφάνθηκαν ότι δημιουργοί είναι οι άνθρωποι, παρ' όλα αυτά οι συγγραφείς σεναρίων εκεί δεν έχουν πειστεί και συνεχίζουν την απεργία τους, καθώς παράγονται σενάρια με τη χρήση chat gpt.

Το θέμα της απεργίας, όπως ειπώθηκε μεταξύ των ομιλητών, τέθηκε υπό αμφισβήτηση από τον Έλον Μασκ, ο οποίος απείλησε να αντικαταστήσει τους εργαζομένους με ρομπότ για να πάρει την απάντηση: «Τα αυτοκίνητά σου κάποιος πρέπει να τα αγοράζει και τα ρομπότ δεν τα χρειάζονται».

Η δικηγόρος Μαρία Κουτσουπιά ανέπτυξε το πνεύμα με το οποίο κινούνται το Ευρωπαϊκό Κοινοβούλιο και η Επιτροπή για τη νομοθέτηση κανόνων, με αποτέλεσμα τον ευρωπαϊκό Κανονισμό για την Τεχνητή Νοημοσύνη. «Ελπίζουμε να τελειώσει ως το τέλος του 2023, με περιθώριο προσαρμογής ως το 2027», επεσήμανε.

Η Ευρώπη προτάσσει διαφάνεια και λογοδοσία.

Οι ΗΠΑ και η Κίνα έχουν επενδύσει εδώ και χρόνια μεγάλα κεφάλαια στην ανάπτυξη της τεχνητής νοημοσύνης και είναι χαρακτηριστική η ανακοίνωση της Επιτροπής το 2018, «έχουμε μείνει πίσω» (we were left behind). Ωστόσο, η Ευρώπη διαθέτει καλούς επιστήμονες και κανόνες ηθικής. Πριν στήσει το νομοθετικό πλαίσιο έβαλε επτά κανόνες με πρώτους τη «διαφάνεια και την λογοδοσία» στη χρησιμοποίηση της τεχνητής νοημοσύνης.

Επίσης, υπάρχουν κόκκινες γραμμές, όπως η απαγόρευση χρήσης του συστήματος τεχνητής νοημοσύνης για να γίνει «προφίλ» προσώπου και για την «ανίχνευση συναισθημάτων», που θα ήταν «αξιοποιήσιμα» για εγκληματικές και τρομοκρατικές ενέργειες.

ΔΙΑΦΉΜΙΣΗ

Ο ευρωπαϊκός κανονισμός προβλέπει, ακόμη, απόδοση πνευματικών δικαιωμάτων από το chat gpt και οι εταιρείες απειλούνται με τεράστια πρόστιμα.

Η κ. Κουτσουπιά εστίασε το ενδιαφέρον της στη χρήση της τεχνητής νοημοσύνης στο πεδίο της υγείας και μίλησε για τα τρία ζητήματα που καλείται να καλύψει η τεχνητή νοημοσύνη: 1. Την έλλειψη προσωπικού για βοηθητικές δουλειές 2. Τις χρόνιες ασθένειες για τις οποίες μπορούν να συγκεντρωθούν πολλά δεδομένα και άρα να προκύψουν καλύτερα αποτελέσματα. 3. Την ανακάλυψη φαρμάκων. Εδώ η τεχνητή νοημοσύνη μπορεί να αποδειχθεί θαυματουργή καθώς μειώνει θεαματικά τον χρόνο των κλινικών μελετών.

Η ομιλήτρια δεν παρέλειψε να αναφερθεί στις αρνητικές επιπτώσεις από κακή χρήση λόγω ανθρώπινου λάθους, από προκαταλήψεις, έλλειψη διαφάνειας και παραβίαση των προσωπικών δεδομένων.

Υπερσυγκέντρωση των προσωπικών δεδομένων σε «μια χούφτα» ψηφιακούς γίγαντες.

Ο Στέφανος Λουκόπουλος, ο οποίος δουλεύει για το Vouliwatch, υπογράμμισε ότι όσο περισσότερο οι δημοκρατίες μας στηρίζονται στην τεχνητή νοημοσύνη τόσο «οι κίνδυνοι για τη δημοκρατία και τα ανθρώπινα δικαιώματα αυξάνονται».

Μίλησε για την υπερσυγκέντρωση των προσωπικών δεδομένων στα χέρια «μιας χούφτας» ψηφιακών γιγάντων, η οποία μπορεί να οδηγήσει σε χειραγώγηση των πολιτικών επιλογών. Μάλιστα, επικαλέστηκε μελέτη, σύμφωνα με την οποία από το 2015 πάνω από 25 εκλογικές αναμετρήσεις επηρεάστηκαν από τη μηχανή αναζήτησης της Google, «ψαρεύοντας» μεταξύ των αναποφάσιστων.

ΔΙΑΦΉΜΙΣΗ

Αναφερόμενος στις δημόσιες υπηρεσίες σημείωσε ότι ενεδρεύει ο κίνδυνος της μεροληψίας εις βάρος ευάλωτων και περιθωριοποιημένων πολιτών καθώς και γυναικών, ως προς την απονομή κοινωνικών επιδομάτων ή τη φοροδοτική ικανότητα. Η λύση, είπε, είναι να ζητάμε διαφάνεια και λογοδοσία, την οποία παρέχει η ίδια η τεχνολογία.

Ο Αντώνης Καλογερόπουλος του πανεπιστημίου VUB των Βρυξελλών και του Reuters Institute, πιστεύει ότι πολλοί άνθρωποι επηρεάζονται από την παραπληροφόρηση των social media και τις θεωρίες συνωμοσίας «από έλλειψη εμπιστοσύνης στους θεσμούς, κοινωνικό στρες, αβεβαιότητα, περιθωριοποίηση».

Οι πολίτες των χωρών με ισχυρούς δημοκρατικούς θεσμούς και αξιόπιστα μέσα ενημέρωσης δεν διατρέχουν σοβαρό κίνδυνο (Σκανδιναβικές Χώρες, Γερμανία, Ηνωμένο Βασίλειο), λέει ο ίδιος, προσθέτοντας ότι στην Ελλάδα πολλοί πολίτες στρέφονται στα social media.

Επίσης, οι μεγάλοι δημοσιογραφικοί οργανισμοί, όπως BBC, Ass Press, Reuters έχουν τους πόρους και την τεχνολογία για να ανιχνεύουν τα deep fake news, είτε πρόκειται για κείμενο είτε για εικόνα ή για ήχο.

Τον κύκλο των ομιλητών έκλεισε ο Παναγιώτης Σκευοφύλαξ του Ινστιτούτου ΕΝΑ.

ΔΙΑΦΉΜΙΣΗ

Ο κ. Σκευοφύλαξ μίλησε για την αύξηση της επιρροής της τεχνολογίας των social media την τελευταία 10ετία στην πολιτική, της οποίας έχουν αναδιαμορφώσει το περιεχόμενο, καθώς και τη σχέση των πολιτικών με τους ψηφοφόρους.

Η τεχνολογία δεν είναι ουδέτερη, όπως τόνισε. Ή θα χρησιμοποιηθεί για την αναζωογόνηση της πολιτικής ή θα γίνει ένα ανεξέλεγκτο εργαλείο ισχύος στα χέρια προσωπικοτήτων που δεν μπορούν να απαντήσουν στην κρίση του πολιτικού φαινομένου και την κρίση εμπιστοσύνης των πολιτών στους πολιτικούς δρώντες.

Σε απευθείας διαδικτυακή κλήση από τη Γερμανία, η Lorena Jaume Palasi, ιδρύτρια και γενική διευθύντρια του The Ethical Tech Society, ανέλυσε το περιβαλλοντικό κόστος που συχνά έχει η τεχνητή νοημοσύνη. Ειδικότερα, αναφέρθηκε στην ανάγκη για πρώτες ύλες που δημιουργεί η χρήση ΑΙ. Όπως εξήγησε, οι ανάγκες σε νερό και ηλεκτρισμό για αυτοματοποιημένα συστήματα (AI) βρίσκονται σε έντονο ανταγωνισμό με τις ανάγκες στους τομείς της γεωργίας, των μεταφορών, της υγείας και της πράσινης ενέργειας, καθώς και τις ιδιωτικές ανάγκες των λαών.

Σε διαδικτυασκή σύνδεση μίλησε και η Cathelijne Muller από τον οργανισμό ALLAI, ενώ το «παρών» στην εκδήλωση, που πραγματοποιήθηκε στην αίθουσα Μανώλης Γλέζος, έδωσαν και οι ευρωβουλευτές του ΣΥΡΙΖΑ Κώστας Αρβανίτης και Έλενα Κουντουρά.

Κοινοποιήστε το άρθροΣχόλια

Σχετικές ειδήσεις

Μπορεί η τεχνητή νοημοσύνη να καταστρέψει την ανθρωπότητα;

Το Euronews στην πρώτη γραμμή της κάλυψης των κρίσιμων ευρωεκλογών του 2024

Πρόταση Φον Ντερ Λάιεν για κοινή αγορά αμυντικού εξοπλισμού της Ε.Ε.