Newsletter Newsletters Events Εκδηλώσεις Ποντάκαστ Βίντεο Africanews
Loader
Διαφήμιση

Ειδικοί: Τα ελεύθερα βιοδεδομένα βοηθούν την ΤΝ να σχεδιάζει επικίνδυνα παθογόνα

Φωτογραφία αρχείου: Εργαστηριακός τεχνικός κοιτάζει οθόνη υπολογιστή κατά τη διάρκεια έρευνας για τον κορωνοϊό COVID-19 στο Βέλγιο.
ΑΡΧΕΙΟ: Εργαστηριακός τεχνικός κοιτάζει οθόνη υπολογιστή κατά τη διάρκεια έρευνας για τον κορονοϊό COVID-19 στο Βέλγιο. Πνευματικά Δικαιώματα  Copyright 2020 The Associated Press. All rights reserved
Πνευματικά Δικαιώματα  Copyright 2020 The Associated Press. All rights reserved
Από Marta Iraola Iribarren
Δημοσιεύθηκε
Μοιραστείτε το Σχόλια
Μοιραστείτε το Close Button

Περισσότεροι από 100 ερευνητές ζητούν δικλίδες ασφαλείας για βιολογικά σύνολα δεδομένων υψηλού κινδύνου, ώστε να αποτραπεί κατάχρηση της τεχνητής νοημοσύνης που θα μπορούσε να οδηγήσει στη δημιουργία φονικών παθογόνων.

Τα μοντέλα τεχνητής νοημοσύνης (AI) για τη βιολογία βασίζονται σε μεγάλο βαθμό σε τεράστιους όγκους βιολογικών δεδομένων, όπως γενετικές ακολουθίες και χαρακτηριστικά παθογόνων. Όμως πρέπει αυτές οι πληροφορίες να είναι ελεύθερα προσβάσιμες σε όλους; Και με ποιον τρόπο μπορεί να διασφαλιστεί η ορθή, νόμιμη χρήση τους;

ΔΙΑΦΉΜΙΣΗ
ΔΙΑΦΉΜΙΣΗ

Περισσότεροι από 100 ερευνητές προειδοποιούν ότι η ανεξέλεγκτη πρόσβαση σε ορισμένα βιολογικά σύνολα δεδομένων θα μπορούσε να επιτρέψει σε συστήματα AI να βοηθήσουν στον σχεδιασμό ή την ενίσχυση επικίνδυνων ιών, και ζητούν ισχυρότερα μέτρα προστασίας ώστε να αποτραπεί η κακόβουλη χρήση τους.

Σε ανοικτή επιστολή (πηγή στα Αγγλικά), ερευνητές από κορυφαία ιδρύματα, μεταξύ των οποίων το Πανεπιστήμιο Τζονς Χόπκινς, το Πανεπιστήμιο της Οξφόρδης, το Πανεπιστήμιο Φόρνταμ και το Πανεπιστήμιο Στάνφορντ, υποστηρίζουν ότι, παρότι η ανοικτή πρόσβαση σε επιστημονικά δεδομένα έχει επιταχύνει την ανακάλυψη, ένα μικρό υποσύνολο νέων βιολογικών δεδομένων ενέχει κινδύνους για τη βιοασφάλεια αν χρησιμοποιηθεί καταχρηστικά.

«Το διακύβευμα στη διακυβέρνηση των βιολογικών δεδομένων είναι μεγάλο, καθώς τα μοντέλα AI θα μπορούσαν να συμβάλουν στη δημιουργία σοβαρών βιολογικών απειλών», γράφουν οι συντάκτες.

Τα μοντέλα AI που χρησιμοποιούνται στη βιολογία μπορούν να προβλέπουν μεταλλάξεις, να εντοπίζουν μοτίβα και να παράγουν πιο μεταδοτικές παραλλαγές παθογόνων που προκαλούν πανδημίες.

Οι συγγραφείς περιγράφουν αυτή τη δυνατότητα ως «capability of concern», δηλαδή ως μια επικίνδυνη ικανότητα που θα μπορούσε να επιταχύνει και να απλοποιήσει τη δημιουργία μεταδοτικών βιολογικών παθογόνων τα οποία μπορούν να οδηγήσουν σε πανδημίες στον άνθρωπο ή σε ανάλογα φαινόμενα σε ζώα, φυτά ή το περιβάλλον.

Τα βιολογικά δεδομένα, επισημαίνουν, θα πρέπει γενικά να είναι ανοικτά διαθέσιμα, ωστόσο τα «ανησυχητικά δεδομένα παθογόνων» χρειάζονται αυστηρότερους ελέγχους ασφαλείας.

«Εστιάζουμε στον ορισμό και τη διαχείριση των πιο ανησυχητικών συνόλων δεδομένων πριν γίνουν ευρέως διαθέσιμα στους δημιουργούς συστημάτων AI», σημειώνουν στο κείμενο, προτείνοντας ένα νέο πλαίσιο ρύθμισης της πρόσβασης.

«Σε μια εποχή όπου κυριαρχούν τα μοντέλα βιολογικής AI με ανοικτά βάρη, που αναπτύσσονται σε ολόκληρο τον κόσμο, ο περιορισμός της πρόσβασης σε ευαίσθητα δεδομένα παθογόνων μόνο σε νόμιμους ερευνητές μπορεί να είναι ένας από τους πιο υποσχόμενους τρόπους μείωσης του κινδύνου», δήλωσε ο Μόριτς Χάνκε, συν-συντάκτης της επιστολής από το Πανεπιστήμιο Τζονς Χόπκινς.

Τι κάνουν οι δημιουργοί των μοντέλων

Προς το παρόν, δεν υπάρχει ενιαίο, παγκόσμιο πλαίσιο που να ρυθμίζει αυτά τα σύνολα δεδομένων. Αν και ορισμένοι δημιουργοί αποκλείουν εθελοντικά δεδομένα υψηλού κινδύνου, οι ερευνητές υποστηρίζουν ότι χρειάζονται σαφείς και συνεπείς κανόνες που θα ισχύουν για όλους.

Οι δημιουργοί των κορυφαίων μοντέλων βιολογικής AI, Evo, που αναπτύχθηκε από ερευνητές των Arc Institute, Stanford και TogetherAI, και ESM3, της EvolutionaryScale, έχουν αποκλείσει ορισμένες ιικές ακολουθίες από τα δεδομένα εκπαίδευσής τους.

Τον Φεβρουάριο του 2025, η ομάδα του EVO 2 ανακοίνωσε ότι απέκλεισε από τα σύνολα δεδομένων της παθογόνα που μολύνουν ανθρώπους και άλλους περίπλοκους οργανισμούς, επικαλούμενη ηθικούς και λόγους ασφάλειας, αλλά και για να «προλάβει τη χρήση του Evo για την ανάπτυξη βιολογικών όπλων».

Το EVO 2 είναι ένα ανοικτού κώδικα μοντέλο AI για τη βιολογία, το οποίο μπορεί να προβλέπει τις επιπτώσεις μεταλλάξεων του DNA, να σχεδιάζει νέα γονιδιώματα και να αποκαλύπτει μοτίβα στον γενετικό κώδικα.

«Σήμερα δεν υπάρχει τεκμηριωμένη, εμπεριστατωμένη καθοδήγηση σχετικά με το ποια δεδομένα συνεπάγονται ουσιαστικούς κινδύνους, με αποτέλεσμα ορισμένοι πρωτοπόροι δημιουργοί να κάνουν τις δικές τους εκτιμήσεις και να αποκλείουν εθελοντικά ιικά δεδομένα από την εκπαίδευση», έγραψε στο LinkedIn ο Τζάσι Πάνου, ένας από τους συγγραφείς της μελέτης και συν-συντάκτης της επιστολής.

Διαφορετικοί τύποι επικίνδυνων δεδομένων

Οι συγγραφείς σημειώνουν ότι το προτεινόμενο πλαίσιο αφορά μόνο ένα μικρό μέρος των βιολογικών συνόλων δεδομένων.

Εισάγει μια κλίμακα πέντε επιπέδων, το Biosecurity Data Level (BDL), για την ταξινόμηση δεδομένων παθογόνων. Τα δεδομένα κατατάσσονται ανά επίπεδο «κινδύνου», ανάλογα με το πόσο μπορούν να βοηθήσουν τα συστήματα AI να μάθουν γενικά μοτίβα ιών και βιολογικών απειλών για ζώα και ανθρώπους. Περιλαμβάνει:

BDL-0: Δεδομένα καθημερινής βιολογίας. Δεν πρέπει να υπόκεινται σε περιορισμούς και μπορούν να κοινοποιούνται ελεύθερα.

BLD-1: Βασικά δομικά στοιχεία ιών, όπως γενετικές ακολουθίες. Δεν απαιτούνται αυστηροί έλεγχοι ασφαλείας, όμως η σύνδεση και η πρόσβαση πρέπει να παρακολουθούνται.

BLD-2: Δεδομένα για χαρακτηριστικά ιών των ζώων, όπως η ικανότητα μετάδοσης μεταξύ ειδών ή η επιβίωση εκτός ξενιστή.

BLD-3: Δεδομένα για χαρακτηριστικά ιών του ανθρώπου, όπως η μεταδοτικότητα, τα συμπτώματα και η αντοχή στα εμβόλια.

BLD-4: Τροποποιημένοι ιοί που προσβάλλουν ανθρώπους, όπως μεταλλάξεις του ιού της COVID-19 που τον καθιστούν πιο μεταδοτικό. Η κατηγορία αυτή θα υπόκειται στους αυστηρότερους περιορισμούς.

Πώς διασφαλίζεται η ασφαλής πρόσβαση

Για να εξασφαλιστεί η ασφαλής πρόσβαση, η επιστολή ζητά την ανάπτυξη συγκεκριμένων τεχνικών εργαλείων που θα επιτρέπουν στους παρόχους δεδομένων να επαληθεύουν τους νόμιμους χρήστες και να εντοπίζουν τυχόν κατάχρηση.

Μεταξύ των προτεινόμενων εργαλείων περιλαμβάνονται το «υδατογράφημα», δηλαδή η ενσωμάτωση κρυφών, μοναδικών αναγνωριστικών στα σύνολα δεδομένων ώστε να εντοπίζονται εύκολα τυχόν διαρροές, η ιχνηλασιμότητα προέλευσης των δεδομένων και τα αρχεία καταγραφής ελέγχου, τα οποία καταγράφουν την πρόσβαση και τις αλλαγές με μη αλλοιώσιμες ψηφιακές υπογραφές, καθώς και τα βιομετρικά συμπεριφοράς που μπορούν να παρακολουθούν μοναδικά μοτίβα αλληλεπίδρασης των χρηστών.

Οι ερευνητές υποστηρίζουν ότι η εύρεση της σωστής ισορροπίας ανάμεσα στην ανοικτότητα και τους αναγκαίους περιορισμούς ασφαλείας για δεδομένα υψηλού κινδύνου θα είναι κρίσιμη, όσο τα συστήματα AI γίνονται ισχυρότερα και πιο διαδεδομένα.

Μετάβαση στις συντομεύσεις προσβασιμότητας
Μοιραστείτε το Σχόλια

Σχετικές ειδήσεις

Η αυξημένη έκθεση σε ατμοσφαιρική ρύπανση συνδέεται με αυξημένο κίνδυνο Αλτσχάιμερ, δείχνει μελέτη

Μία δόση δραστικής ουσίας αγιαχουάσκα βοηθά στην κατάθλιψη, δείχνει έρευνα

Ερευνητές εντοπίζουν βακτήρια 5.000 ετών ανθεκτικά στα σύγχρονα αντιβιοτικά