Η τεχνητή νοημοσύνη και ειδικά το ChatGPT έχουν μπει στο στόχαστρο των εποπτικών Αρχών στην Ευρώπη, καθώς εντείνονται οι φόβοι για παραπληροφόρηση και για παραβίαση της ιδιωτικότητας, όσων τα χρησιμοποιούν.
Μετά την προσωρινή απαγόρευση για 20 ημέρες στο ChatGPT από την αρμόδια εποπτική Αρχή της Ιταλίας, και η Επιτροπή Προστασίας Δεδομένων της Ιρλανδίας, αλλά και η αρμόδια ρυθμιστική Αρχή Προστασίας Δεδομένων της Βρετανίας έχουν αναφέρει ότι θα αρχίσουν να εξετάζουν πιο προσεκτικά τα λεγόμενα chatbot τεχνητής νοημοσύνης (AI), ειδικά όσον αφορά την προστασία δεδομένων.
Επίσης, οι εποπτικές Αρχές προστασίας απορρήτου στη Γαλλία επικοινώνησαν με την Ιταλία για να μάθουν περισσότερα, σχετικά με τη βάση της απαγόρευσης του ChatGPT στη χώρα αυτή.
Οι ρυθμιστικές Αρχές στην Ισπανία δήλωσαν ότι ενδέχεται να ξεκινήσουν τη δική τους έρευνα στο μέλλον, αν χρειαστεί, για το ChatGPT. Και η Γερμανία θα μπορούσε να ακολουθήσει τα βήματα της Ιταλίας, μην επιτρέποντας την πρόσβαση χρηστών στο ChatGPT, ανέφεραν οι Αρχές της Γερμανίας.
Το ChatGPT είναι ήδη μη προσβάσιμο σε πολλές χώρες, όπως η Κίνα, το Ιράν, η Βόρεια Κορέα και η Ρωσία.
Προειδοποίηση για όλα τα chatbots τεχνητής νοημοσύνης από την Ένωση Ευρωπαίων Καταναλωτών (BEUC)
Δεν είναι τυχαίο ότι εκατοντάδες εκατομμύρια άνθρωποι έχουν χρησιμοποιήσει το ChatGPT από την κυκλοφορία του τον Νοέμβριο του 2022, καθιστώντας το την ταχύτερα αναπτυσσόμενη εφαρμογή καταναλωτών στην ιστορία, σύμφωνα με μελέτη της UBS.
Ακόμα και το αφεντικό της Tesla και του Twitter και πρωτοπόρος στον τομέα της τεχνολογίας, Ίλον Μασκ, εξέφρασε κι αυτός τις δικές του επιφυλάξεις. Ζήτησε, μάλιστα, να ανασταλεί η λειτουργία αυτών των μορφών τεχνητής νοημοσύνης μέχρι να γίνουν έρευνες από τις αρμόδιες Αρχές για όλα αυτά τα chatbots.
Προειδοποίηση για το ChatGPT και όλα τα chatbots τεχνητής νοημοσύνης γενικότερα έχει στείλει επίσης η Ένωση Ευρωπαίων Καταναλωτών (BEUC), που ζητά από όλες τις Αρχές να ερευνήσουν τις επιπτώσεις από την τεχνολογία αυτή.
«Οι καταναλωτές δεν είναι έτοιμοι για αυτήν την τεχνολογία. Δεν συνειδητοποιούν πόσο χειριστική, πόσο παραπλανητική μπορεί να είναι», δήλωσε η αναπληρώτρια διευθύντρια της BEUC, Ούρσουλα Παχλ, στο Euronews.
«Οι καταναλωτές δεν συνειδητοποιούν ότι οι πληροφορίες που λαμβάνουν ίσως είναι λανθασμένες. Νομίζω ότι αυτό το περιστατικό με το ChatGPT είναι πολύ σημαντικό. Είναι ένα είδος αφύπνισης για την Ευρωπαϊκή Ένωση, επειδή, παρ’ όλο που τα ευρωπαϊκά θεσμικά όργανα εργάζονται για έναν νόμο AI, δεν θα ισχύει για άλλα τέσσερα χρόνια. Και έχουμε δει πόσο γρήγορα αναπτύσσονται αυτού του είδους τα συστήματα», πρόσθεσε.
- Τι συνέβη στην Ιταλία
Η Ιταλία έγινε η πρώτη ευρωπαϊκή χώρα που απαγόρευσε την πρόσβαση και χρήση του εργαλείου (chatbot) τεχνητής νοημοσύνης ChatGPT, της OpenAI με τη στήριξη της Microsoft, επικαλούμενη λόγους ιδιωτικότητας. Η OpenAI έχει περιθώριο 20 ημερών για να προχωρήσει στις απαραίτητες ρυθμίσεις. Αν δεν το κάνει, κινδυνεύει να δεχτεί από τις Αρχές της Ιταλίας πρόστιμο 20 εκατ. ευρώ, που αναλογεί στο 4% του ετήσιου τζίρου της, σύμφωνα με την ισχύουσα νομοθεσία.
Η Αρχή Προστασίας Δεδομένων της Ιταλίας, γνωστή και ως Garante, κατηγόρησε την OpenAI ότι δεν ελέγχει την ηλικία των χρηστών του ChatGPT, η οποία θα πρέπει να είναι μεγαλύτερη από 13 έτη. Σύμφωνα με την ανακοίνωση της Garante, στο ChatGPT «απουσιάζει οποιαδήποτε νομική βάση που να δικαιολογεί τη μαζική συγκέντρωση και αποθήκευση προσωπικών δεδομένων», τα οποία χρησιμοποιούνται για να «εκπαιδεύεται» το chatbot αυτό.
- Η Κομισιόν προτείνει μια πρωτοποριακή νομοθεσία για την τεχνητή νοημοσύνη
Η Κομισιόν, από την πλευρά της, έχει προτείνει μια πρωτοποριακή νομοθεσία για την τεχνητή νοημοσύνη. Γνωστή ως «European AI Act», η νομοθεσία αυτή έχει σαν στόχο να περιορίσει σε μεγάλο βαθμό τη χρήση της τεχνητής νοημοσύνης σε ζωτικής σημασίας υποδομές, την εκπαίδευση, την επιβολή του νόμου και το δικαστικό σύστημα.
Η νομοθεσία θα λειτουργεί σε συνδυασμό με τον Γενικό Κανονισμό Προστασίας Δεδομένων της ΕΕ, ο οποίος ρυθμίζει τον τρόπο, με τον οποίο οι εταιρείες μπορούν να επεξεργάζονται και να αποθηκεύουν προσωπικά δεδομένα. Σύμφωνα με το Reuters, τα προσχέδια της νομοθεσίας της ΕΕ θεωρούν ότι το ChatGPT είναι μια μορφή τεχνητής νοημοσύνης γενικού σκοπού, που χρησιμοποιείται στις λεγόμενες εφαρμογές υψηλού κινδύνου. Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου ορίζονται από την επιτροπή ως εκείνα που θα μπορούσαν να επηρεάσουν τα θεμελιώδη δικαιώματα ή την ασφάλεια των ανθρώπων.
Δεν υπάρχουν σχόλια
Δημοσίευση σχολίου