Καστοριά

Τεχνητή νοημοσύνη: Μια κοσμογονία συντελείται (του Θόδωρου Βασιλείου)

Η μεγάλη σε διάρκεια προεκλογική περίοδος έχει αποσπάσει την προσοχή μας, απο τις εξελίξεις στον χώρο της τεχνητής νοημοσύνης. ΠΡΟΚΕΙΤΑΙ ΓΙΑ ΜΙΑ ΚΟΣΜΟΓΟΝΙΑ ΠΟΥ ΣΥΝΤΕΛΕΊΤΑΙ σχεδόν αθόρυβα, αφότου μάλιστα κάποια πανεπιστήμια έχουν δώσει για ελεύθερη χρήση τον βασικό κώδικα προγράμματος που έγινε η αιτία αυτού του άλματος στον χώρο της τεχνητής νοημοσύνης. Πλέον δεν μιλάμε μόνο για το chat gpt, αλλα για δεκάδες άλλα παρόμοια προγράμματα σε όλους τους τομείς, που απογειώνουν αυτό που ως τώρα ονομάζαμε τεχνολογικό πολιτισμό. Το άκρως ενδιαφέρον στοιχείο είναι ότι παράγουν αποτελέσματα ανθρώπινης συμπεριφοράς (που δεν διακρίνεται απο την αληθινά ανθρώπινη) ΧΩΡΙΣ ΝΑ ΧΡΕΙΑΖΕΤΑΙ Η ΤΕΧΝΗΤΉ ΝΟΗΜΟΣΎΝΗ ΝΑ ΔΙΑΘΕΤΕΙ ΣΥΝΕΙΔΗΣΗ ΤΟΥ ΕΑΥΤΟΎ ΤΗΣ.
Οι διάφορες μορφές τεχνητής νοημοσύνης που κυκλοφορούν δεν διαθέτουν κανένα προγραμματιστικό φραγμό ώστε να προστατεύουν ή να μην είναι εχθρικές προς τον άνθρωπο και την φύση.
ΩΣ ΣΉΜΕΡΑ ΔΕΝ ΈΧΟΥΝ ΤΕΘΕΙ νομοθετικοί περιορισμοί και κανόνες για την ελεύθερη χρήση τους, πλην ενός σχεδίου νόμου στην ΕΕ, τον πρώτο ολοκληρωμένο νόμο στον κόσμο για την τεχνητή νοημοσύνη. Στην συνέχεια θα παραθέσω σε μετάφραση το σχετικό σχέδιο νόμου και στο τέλος ένα διαφωτιστικό βίντεο στο youtube.
Η ανάρτηση μου θα είναι ανοιχτή σε σχόλια και συζητήσεις που ισως διαφωτίσουν περισσότερους για το απρόβλεπτο άλμα του ανθρώπινου πολιτισμου που συντελείται.
Η ΕΠΙΣΤΗΜΟΝΙΚΗ ΦΑΝΤΑΣΙΑ ΣΤΟ ΠΑΡΕΛΘΟΝ ΕΙΧΕ ΠΕΡΙΓΡΑΨΕΙ ΤΟΥ ΚΙΝΔΥΝΟΥΣ ΑΠΟ ΜΙΑ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΠΟΥ ΑΠΟΚΤΑ ΣΥΝΕΙΔΗΣΗ ΤΟΥ ΕΑΥΤΟΥ ΤΗΣ.
ΣΗΜΕΡΑ ΔΥΣΤΥΧΏΣ ΕΙΜΑΣΤΕ ΜΠΡΟΣΤΑ ΣΕ ΠΑΡΟΜΟΙΟΥΣ ΚΙΝΔΥΝΟΥΣ ΑΠΟ ΜΙΑ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΑΡΥΘΜΙΣΤΗ ΚΑΙ ΧΩΡΙΣ ΣΥΝΕΙΔΗΣΗ ΤΟΥ ΕΑΥΤΟΎ ΤΗΣ.
Ακολουθεί το νομοσχέδιο
EU Act AI: πρώτος κανονισμός για την τεχνητή νοημοσύνη
Κοινωνία ΕΠΙΚΑΙΡΟΠΟΙΗΜΕΝΟ: 14-06-2023 – 14:06
Δημιουργήθηκε: 08-06-2023 – 11:40
Η χρήση της τεχνητής νοημοσύνης στην ΕΕ θα ρυθμίζεται από τον νόμο AI, τον πρώτο ολοκληρωμένο νόμο στον κόσμο για την τεχνητή νοημοσύνη. Μάθετε πώς θα σας προστατεύσει.
Ένας άντρας αντιμετωπίζει μια φιγούρα που δημιουργήθηκε από υπολογιστή με τη γλώσσα προγραμματισμού στο φόντο
Αυτή η απεικόνιση της τεχνητής νοημοσύνης στην πραγματικότητα δημιουργήθηκε από την τεχνητή νοημοσύνη
Ως μέρος της ψηφιακής στρατηγικής της , η ΕΕ θέλει να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της καινοτόμου τεχνολογίας. Η τεχνητή νοημοσύνη μπορεί να δημιουργήσει πολλά οφέλη , όπως καλύτερη υγειονομική περίθαλψη. ασφαλέστερη και καθαρότερη μεταφορά· πιο αποτελεσματική παραγωγή· και φθηνότερη και πιο βιώσιμη ενέργεια.
Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή πρότεινε το πρώτο ρυθμιστικό πλαίσιο της ΕΕ για την τεχνητή νοημοσύνη. Λέει ότι τα συστήματα τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν σε διαφορετικές εφαρμογές αναλύονται και ταξινομούνται ανάλογα με τον κίνδυνο που ενέχουν για τους χρήστες. Τα διαφορετικά επίπεδα κινδύνου θα σημαίνουν περισσότερη ή λιγότερη ρύθμιση. Μόλις εγκριθούν, αυτοί θα είναι οι πρώτοι κανόνες στον κόσμο για την τεχνητή νοημοσύνη.
Μάθετε περισσότερα για το τι είναι η τεχνητή νοημοσύνη και πώς χρησιμοποιείται
Τι θέλει το Κοινοβούλιο στη νομοθεσία για την τεχνητή νοημοσύνη
Προτεραιότητα του Κοινοβουλίου είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον. Τα συστήματα τεχνητής νοημοσύνης θα πρέπει να επιβλέπονται από ανθρώπους και όχι από αυτοματισμούς, για την πρόληψη επιβλαβών αποτελεσμάτων.
Το Κοινοβούλιο θέλει επίσης να καθιερώσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την τεχνητή νοημοσύνη που θα μπορούσε να εφαρμοστεί σε μελλοντικά συστήματα τεχνητής νοημοσύνης.
Μάθετε περισσότερα για το έργο του Κοινοβουλίου σχετικά με την τεχνητή νοημοσύνη και το όραμά του για το μέλλον της τεχνητής νοημοσύνης
AI Act: διαφορετικοί κανόνες για διαφορετικά επίπεδα κινδύνου
Οι νέοι κανόνες θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες ανάλογα με το επίπεδο κινδύνου από την τεχνητή νοημοσύνη. Ενώ πολλά συστήματα τεχνητής νοημοσύνης ενέχουν ελάχιστο κίνδυνο, πρέπει να αξιολογηθούν.
Απαράδεκτος κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης απαράδεκτου κινδύνου είναι συστήματα που θεωρούνται απειλή για τους ανθρώπους και θα απαγορευθούν. Περιλαμβάνουν:
Γνωστική συμπεριφορική χειραγώγηση ανθρώπων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια που ενεργοποιούνται με φωνή που ενθαρρύνουν επικίνδυνη συμπεριφορά στα παιδιά
Κοινωνική βαθμολογία: ταξινόμηση ατόμων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση ή τα προσωπικά χαρακτηριστικά
Συστήματα βιομετρικής αναγνώρισης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου
Ενδέχεται να επιτρέπονται ορισμένες εξαιρέσεις: Για παράδειγμα, τα «ταχυδρομικά» συστήματα βιομετρικής αναγνώρισης εξ αποστάσεως όπου η ταυτοποίηση πραγματοποιείται μετά από σημαντική καθυστέρηση, θα επιτρέπεται να διώκουν σοβαρά εγκλήματα, αλλά μόνο μετά από έγκριση δικαστηρίου.
Υψηλού κινδύνου
Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες:
1) Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων . Αυτό περιλαμβάνει παιχνίδια, αεροπορία, αυτοκίνητα, ιατρικές συσκευές και ανελκυστήρες.
2) Συστήματα τεχνητής νοημοσύνης που εμπίπτουν σε οκτώ συγκεκριμένους τομείς που θα πρέπει να καταχωρηθούν σε μια βάση δεδομένων της ΕΕ:
Βιομετρική αναγνώριση και κατηγοριοποίηση φυσικών προσώπων
Διαχείριση και λειτουργία υποδομών ζωτικής σημασίας
Εκπαίδευση και επαγγελματική κατάρτιση
Απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση
Πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών
Επιβολή του νόμου
Διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων
Βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.
Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογηθούν πριν διατεθούν στην αγορά και επίσης καθ’ όλη τη διάρκεια του κύκλου ζωής τους.
Generative AI
Το Generative AI, όπως το ChatGPT, θα πρέπει να συμμορφώνεται με τις απαιτήσεις διαφάνειας:
Αποκαλύπτοντας ότι το περιεχόμενο δημιουργήθηκε από AI
Σχεδιασμός του μοντέλου για να αποτρέψει τη δημιουργία παράνομου περιεχομένου
Δημοσίευση περιλήψεων δεδομένων που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για εκπαίδευση
Περιορισμένος κίνδυνος
Τα συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου θα πρέπει να συμμορφώνονται με ελάχιστες απαιτήσεις διαφάνειας που θα επιτρέπουν στους χρήστες να λαμβάνουν τεκμηριωμένες αποφάσεις. Αφού αλληλεπιδράσει με τις εφαρμογές, ο χρήστης μπορεί στη συνέχεια να αποφασίσει αν θέλει να συνεχίσει να το χρησιμοποιεί. Οι χρήστες θα πρέπει να ενημερώνονται όταν αλληλεπιδρούν με την τεχνητή νοημοσύνη. Αυτό περιλαμβάνει συστήματα τεχνητής νοημοσύνης που δημιουργούν ή χειρίζονται περιεχόμενο εικόνας, ήχου ή βίντεο, για παράδειγμα deepfakes.
Επόμενα βήματα
Στις 14 Ιουνίου 2023, οι ευρωβουλευτές υιοθέτησαν διαπραγματευτική θέση του Κοινοβουλίου σχετικά με τον νόμο AI . Οι συνομιλίες θα ξεκινήσουν τώρα με τις χώρες της ΕΕ στο Συμβούλιο σχετικά με την τελική μορφή του νόμου.
Στόχος είναι να επιτευχθεί συμφωνία μέχρι το τέλος του τρέχοντος έτους.
O σύνδεσμος για το πρωτότυπο  europarl.europa.eu 

 

 

 

Back to top button