Newsletter Newsletters Events Εκδηλώσεις Ποντάκαστ Βίντεο Africanews
Loader
Διαφήμιση

Θα καταστήσει η ρύθμιση την ΕΕ την πιο αξιόπιστη δύναμη στην τεχνητή νοημοσύνη;

Θα καταστήσει η ρύθμιση την ΕΕ την πιο αξιόπιστη δύναμη στην τεχνητή νοημοσύνη;
Πνευματικά Δικαιώματα  Euronews
Πνευματικά Δικαιώματα Euronews
Από Isabel Marques da Silva
Δημοσιεύθηκε ανανεώθηκε πριν
Κοινοποιήστε το άρθρο Σχόλια
Κοινοποιήστε το άρθρο Close Button
Αντιγραφή/Επικόλληση το λινκ του βίντεο πιο κάτω: Copy to clipboard Copied

Η διασφάλιση ότι η τεχνητή νοημοσύνη (ΤΝ) σέβεται θεμελιώδεις νόμους και αξίες και είναι ασφαλής για τους πολίτες ήταν ο στόχος της ΕΕ όταν ψήφισε την πράξη για την τεχνητή νοημοσύνη.

ΔΙΑΦΉΜΙΣΗ

Για να βοηθήσει στην εφαρμογή αυτής της νομοθεσίας από του χρόνου, η ΕΕ δημιούργησε έναν εθελοντικό Κώδικα Δεοντολογίας, όμως ορισμένες εταιρείες λένε ότι η υιοθέτηση αυτού του κώδικα θα παρακωλύσει την καινοτομία.

Η ΕΕ καλεί εταιρείες που δημιουργούν γενετικά chatbot, όπως ChatGPT, Mistral, Gemini και Claude, να υπογράψουν έναν εθελοντικό Κώδικα Δεοντολογίας για την τεχνητή νοημοσύνη γενικής χρήσης. 

Υπογράφοντας τον κώδικα και τηρώντας τους κανόνες, θεωρείται ότι συμμορφώνονται με την πράξη για την τεχνητή νοημοσύνη, έναν νόμο της ΕΕ που τέθηκε σε ισχύ το 2024 και ορίζει τέσσερα επίπεδα κινδύνου για τη χρήση της τεχνητής νοημοσύνης, από το ελάχιστο έως το απαράδεκτο. 

Οι εταιρείες που αρνούνται να υπογράψουν τον κώδικα ενδέχεται να αντιμετωπίσουν αυστηρότερες επιθεωρήσεις και διοικητικές επιβαρύνσεις. Σημαντικές εταιρείες όπως η OpenAI και η Anthropic υποστηρίζουν τον κώδικα, ενώ άλλες, όπως η Meta, αρνούνται να τον υπογράψουν. 

©
© Euronews

«Από τον περασμένο Σεπτέμβριο που ξεκίνησε η διαδικασία σύνταξης, η Meta είναι πολύ επικριτική απέναντι στον κώδικα, λέγοντας ότι καταπνίγει την καινοτομία», δήλωσε η Cynthia Kroet, επικεφαλής δημοσιογράφος τεχνολογικής πολιτικής στο Euronews. 

«Έχουν παρουσιάσει μερικά εργαλεία που δεν μπορούν να χρησιμοποιήσουν πλήρως στην Ευρώπη, επίσης λόγω των κανόνων προστασίας δεδομένων. Τελικά δεν έχει μεγάλη σημασία αν υπογράψουν ή όχι, διότι η πράξη για την τεχνητή νοημοσύνη θα υπερισχύσει ούτως ή άλλως», πρόσθεσε. 

Ο νόμος για την τεχνητή νοημοσύνη θα εφαρμοστεί σταδιακά έως το 2027. Αυτόν τον μήνα θα τεθούν σε ισχύ οι κανόνες για τα μοντέλα τεχνητής νοημοσύνης γενικής χρήσης, όπως τα προαναφερθέντα γενετικά chatbot, και οι εταιρείες έχουν δύο χρόνια για να προσαρμοστούν. 

Ωστόσο, τα μελλοντικά μοντέλα που θα εισέλθουν στην αγορά θα πρέπει να συμμορφωθούν άμεσα με τον νόμο και σε περίπτωση παράβασης η Επιτροπή μπορεί να επιβάλει πρόστιμο ύψους έως και 15 εκατομμυρίων ευρώ. 

Δεν είναι αντίθετες η ρύθμιση και οι επενδύσεις;

©
© Euronews

Ο κώδικας δεοντολογίας ορίζει προτάσεις για το πώς θα γίνονται σεβαστά τα πνευματικά δικαιώματα, πρότυπα για την αποφυγή συστημικών κινδύνων από προηγμένα μοντέλα τεχνητής νοημοσύνης και συμβουλές για τη συμπλήρωση ενός εντύπου που ενθαρρύνει τη διαφάνεια σχετικά με τον τρόπο συμμόρφωσής τους με τον νόμο για την τεχνητή νοημοσύνη. 

Ορισμένοι αναλυτές υποστηρίζουν ότι η ΕΕ χρησιμοποιεί τη ρύθμιση για να τοποθετηθεί στρατηγικά ως ο πιο αξιόπιστος πάροχος τεχνητής νοημοσύνης παγκοσμίως. Οι ΗΠΑ και η Κίνα έχουν λιγότερο ολοκληρωμένες ρυθμιστικές προσεγγίσεις και εστιάζουν κυρίως στην προσέλκυση μεγάλων επενδύσεων στον τομέα. 

Ωστόσο, η Laura Lázaro Cabrera, σύμβουλος του Κέντρου για τη Δημοκρατία και την Τεχνολογία, αναφέρει ότι αυτά τα δύο πρέπει να συμβαδίζουν. 

«Η ΕΕ έχει κάνει μεγάλα βήματα προς την ενίσχυση της οικονομικής στήριξης που παρέχει στην ανάπτυξη της τεχνητής νοημοσύνης στην Ευρώπη. Μόνο φέτος, έχουν ανακοινωθεί πάνω από 200 δισεκατομμύρια ευρώ για επενδύσεις στην τεχνητή νοημοσύνη», δήλωσε η Laura Lázaro Cabrera. 

«Τα οικονομικά αποτελούν σημαντικό μέρος της εξίσωσης και είναι πράγματι σημαντικό για την ΕΕ να διατηρήσει έναν ηγετικό ρόλο στην ανάπτυξη της τεχνητής νοημοσύνης, όμως πιστεύουμε ότι αυτός ο ηγετικός ρόλος πρέπει να συνδεθεί με ένα ισχυρό πλαίσιο ασφαλείας που προωθεί τα θεμελιώδη δικαιώματα και προωθεί ανθρωποκεντρικά συστήματα τεχνητής νοημοσύνης», πρόσθεσε η σύμβουλος. 

Τα προϊόντα βαθυπαραποίησης, η κλοπή εμπιστευτικών δεδομένων και οι αυτοκτονίες που συνδέονται με τη χρήση των chatbot είναι μερικά παραδείγματα των κινδύνων της παραγωγικής τεχνητής νοημοσύνης. 

Η Laura Lázaro Cabrera εξέφρασε την ελπίδα ότι οι υποχρεώσεις που σχετίζονται με τον αλφαβητισμό των επιχειρήσεων σε θέματα τεχνητής νοημοσύνης θα οδηγήσουν επίσης σε εκστρατείες και εκπαίδευση των πολιτών σε επίπεδο ΕΕ, βοηθώντας τους να κατανοήσουν τα οφέλη και τους κινδύνους αυτής της επαναστατικής τεχνολογίας. 

Δείτε το βίντεο εδώ! 

Δημοσιογράφος: Isabel Marques da Silva 

Παραγωγή περιεχομένου: Pilar Montero López 

Παραγωγή βίντεο: Zacharia Vigneron 

Γραφικά: Loredana Dumitru 

Συντονισμός σύνταξης: Ana Lázaro Bosch και Jeremy Fleming-Jones

Μετάβαση στις συντομεύσεις προσβασιμότητας
Κοινοποιήστε το άρθρο Σχόλια

Σχετικές ειδήσεις

Μπορεί η ΕΕ να εφαρμόσει τον νέο της νόμο για την ελευθερία του Τύπου;

Μπορεί η οικονομία της ΕΕ να αντέξει την εμπορική συμφωνία με τις ΗΠΑ;

Μπορεί η ΕΕ να ηγηθεί στην κλιματική αλλαγή και να ενισχύσει την οικονομική ανταγωνιστικότητα;