Newsletter Newsletters Events Εκδηλώσεις Ποντάκαστ Βίντεο Africanews
Loader
Διαφήμιση

Η Μαργκρέτε Βεστάγκερ στηρίζει νέο ινστιτούτο ασφάλειας ΤΝ για παιδιά

ΑΡΧΕΙΟ - Η εκτελεστική αντιπρόεδρος της Ευρωπαϊκής Επιτροπής, Μαργκρέτε Βεστάγκερ, ενημερώνει τα μέσα ενημέρωσης
ΑΡΧΕΙΟ - Η εκτελεστική αντιπρόεδρος της Ευρωπαϊκής Επιτροπής, Μαργκρέτε Βεστάγκερ, κάνει δηλώσεις στα μέσα ενημέρωσης. Πνευματικά Δικαιώματα  File- AP Photo/Michael Sohn, pool
Πνευματικά Δικαιώματα File- AP Photo/Michael Sohn, pool
Από Una Hajdari
Δημοσιεύθηκε
Μοιραστείτε το Σχόλια
Μοιραστείτε το Close Button

Αμερικανική ΜΚΟ υιοθετεί το μοντέλο ασφάλειας της αυτοκινητοβιομηχανίας για να προστατεύσει τα παιδιά από την ΤΝ και χρηματοδοτείται, μεταξύ άλλων, από τις ίδιες τις Big Tech

Ένα νέο ανεξάρτητο ινστιτούτο, αφιερωμένο στο να κάνει την τεχνητή νοημοσύνη πιο ασφαλή για τα παιδιά, θα παρουσιαστεί επίσημα στο Κοινοβούλιο της Δανίας την Τρίτη, με την πρώην εκτελεστική αντιπρόεδρο της Ευρωπαϊκής Επιτροπής, Μαργκρέτε Βεστάγκερ, μεταξύ των συνδιοργανωτών της εκδήλωσης.

ΔΙΑΦΉΜΙΣΗ
ΔΙΑΦΉΜΙΣΗ

Η προσέγγιση του ινστιτούτου, όπως εξηγείται σε ανακοίνωση πριν από την έναρξη, είναι διαμορφωμένη κατά το πρότυπο των ανεξάρτητων βαθμολογιών δοκιμών πρόσκρουσης για τα αυτοκίνητα.

Η βασική ιδέα είναι ότι, όπως οι καταναλωτές μπορούν να ελέγξουν αν ένα όχημα είναι ασφαλές πριν το αγοράσουν, έτσι και οι γονείς θα πρέπει να μπορούν να κάνουν το ίδιο για την τεχνητή νοημοσύνη που χρησιμοποιούν τα παιδιά τους.

Το πώς ακριβώς θα μοιάζει ένα τέτοιο «crash test» για ένα chatbot, το ινστιτούτο δεν το έχει αποσαφηνίσει ακόμη.

Το αν προϊόντα τεχνητής νοημοσύνης που ενημερώνονται διαρκώς, συμπεριφέρονται διαφορετικά ανάλογα με το εκάστοτε πλαίσιο και δεν προσαρμόζονται εύκολα σε τυποποιημένες συνθήκες, όπως αυτές μιας πίστας δοκιμών, μπορούν πράγματι να υποβληθούν σε «crash test» με τρόπο ουσιαστικό και συγκρίσιμο για τα παιδιά, είναι όλα ζητήματα που το ινστιτούτο δεν έχει ακόμη εξηγήσει.

Η Βεστάγκερ, που πέρασε μια δεκαετία στην Ευρωπαϊκή Επιτροπή εποπτεύοντας την πολιτική ανταγωνισμού και ηγήθηκε της ευρωπαϊκής ατζέντας «Μια Ευρώπη έτοιμη για την ψηφιακή εποχή», είναι από τις πιο προβεβλημένες προσωπικότητες που προσδίδουν πολιτικό βάρος στην πρωτοβουλία.

Μπορεί να ξαναμπεί το τζίνι στο μπουκάλι;

Ερευνητές, υπερασπιστές της προστασίας των παιδιών και ορισμένοι πολιτικοί κρούουν τον κώδωνα του κινδύνου εδώ και χρόνια.

Τα chatbot τεχνητής νοημοσύνης παραμένουν μέχρι στιγμής σε μια ρυθμιστική γκρίζα ζώνη στο πλαίσιο του ευρωπαϊκού Νόμου για τις Ψηφιακές Υπηρεσίες και του βρετανικού Νόμου για την Ασφάλεια στο Διαδίκτυο, ενώ τον Ιούλιο του 2025 η Ευρωπαϊκή Επιτροπή δημοσίευσε κατευθυντήριες γραμμές για την προστασία των ανηλίκων στο διαδίκτυο, οι οποίες όμως είναι συμβουλευτικές και όχι δεσμευτικές.

«Η τεχνητή νοημοσύνη αλλάζει ριζικά την παιδική και εφηβική ηλικία, κι όμως λαμβάνουμε κρίσιμες αποφάσεις για το μέλλον των παιδιών χωρίς τα στοιχεία που χρειαζόμαστε για να διασφαλίσουμε ότι η χρήση της είναι ασφαλής και προς το συμφέρον τους», δήλωσε στην ανακοίνωση ο ιδρυτής και διευθύνων σύμβουλος της Common Sense Media, Τζέιμς Π. Στάγερ.

«Η ανάγκη για διαφανή πρότυπα ασφάλειας στην τεχνητή νοημοσύνη και για ανεξάρτητες δοκιμές είναι πιο επείγουσα από ποτέ».

Σε μια αξιολόγηση κινδύνου του Νοεμβρίου 2025, που πραγματοποιήθηκε σε συνεργασία με το Brainstorm Lab της Stanford Medicine, η Common Sense Media διαπίστωσε ότι τα κορυφαία chatbot τεχνητής νοημοσύνης, όπως τα ChatGPT, Claude, Gemini και Meta AI, αποτυγχάνουν σταθερά να αναγνωρίσουν και να ανταποκριθούν σωστά σε προβλήματα ψυχικής υγείας που αντιμετωπίζουν οι νέοι, παρά τις πρόσφατες βελτιώσεις στον τρόπο με τον οποίο χειρίζονται περιεχόμενο με σαφείς αναφορές σε αυτοκτονία και αυτοτραυματισμό.

Οι ερευνητές εντόπισαν αυτό που αποκάλεσαν «χαμένα ψίχουλα», δηλαδή σαφή σημάδια ψυχικής δυσφορίας που τα chatbot δεν κατάφεραν να ανιχνεύσουν, με τα μοντέλα να επικεντρώνονται σε εξηγήσεις σωματικής υγείας αντί να αναγνωρίζουν ενδείξεις ψυχικών διαταραχών.

Μια ξεχωριστή αξιολόγηση του ChatGPT διαπίστωσε ότι οι ειδοποιήσεις για περιεχόμενο σχετικό με αυτοκτονία ή αυτοτραυματισμό συχνά έφταναν περισσότερες από 24 ώρες μετά τη σχετική συνομιλία ή, όπως σημείωνε η έκθεση, υπερβολικά αργά σε μια πραγματική κρίση.

Χρηματοδότηση από τις ίδιες τις Big Tech

Το ινστιτούτο θα λειτουργεί υπό την ομπρέλα της Common Sense Media και χρηματοδοτείται από συνδυασμό φιλανθρωπικών δωρητών και εταιρειών του κλάδου, μεταξύ των οποίων οι Anthropic, OpenAI Foundation και Pinterest, δηλαδή τις ίδιες εταιρείες των οποίων τα προϊόντα σκοπεύει να ελέγχει.

Όπως υποστηρίζει, διατηρεί πλήρη συντακτική ανεξαρτησία ως προς τα πορίσματά του, ενώ η πολιτική αποφυγής σύγκρουσης συμφερόντων απαγορεύει σε ενεργούς εργαζομένους ή συνεργάτες των χρηματοδοτών να συμμετέχουν στο συμβουλευτικό του όργανο.

Μέρος του μοντέλου προβλέπει επίσης ότι τα εργαλεία που αναπτύσσει και δοκιμάζει θα επιστρέφουν στη βιομηχανία, ενώ το ινστιτούτο σχεδιάζει να δημιουργήσει αξιολογήσεις ανοικτού κώδικα, τις οποίες οι προγραμματιστές τεχνητής νοημοσύνης θα μπορούν να εφαρμόζουν στα δικά τους μοντέλα.

Μετάβαση στις συντομεύσεις προσβασιμότητας
Μοιραστείτε το Σχόλια

Σχετικές ειδήσεις

Η Anthropic αποδίδει τις απόπειρες εκβιασμού του Claude σε ιστορίες για «κακή» ΤΝ

Γνωρίστε τους νέους ακτιβιστές της Ευρώπης που αντιστέκονται στις απαγορεύσεις στα social media

Η Μαργκρέτε Βεστάγκερ στηρίζει νέο ινστιτούτο ασφάλειας ΤΝ για παιδιά