3 Κίνδυνοι και ανησυχίες για το απόρρητο του Chatbot που πρέπει να γνωρίζετε

3 Κίνδυνοι και ανησυχίες για το απόρρητο του Chatbot που πρέπει να γνωρίζετε
Αναγνώστες σαν εσάς βοηθούν στην υποστήριξη του MUO. Όταν κάνετε μια αγορά χρησιμοποιώντας συνδέσμους στον ιστότοπό μας, ενδέχεται να κερδίσουμε μια προμήθεια θυγατρικών. Διαβάστε περισσότερα.   Ένα λουκέτο με τα πλήκτρα του πληκτρολογίου διάσπαρτα τριγύρω

Τα Chatbots υπάρχουν εδώ και χρόνια, αλλά η άνοδος μεγάλων μοντέλων γλώσσας, όπως το ChatGPT και το Google Bard, έδωσε στη βιομηχανία chatbot μια νέα πνοή.





Εκατομμύρια άνθρωποι χρησιμοποιούν πλέον chatbots AI σε όλο τον κόσμο, αλλά υπάρχουν ορισμένοι σημαντικοί κίνδυνοι και ανησυχίες σχετικά με το απόρρητο που πρέπει να έχετε κατά νου εάν θέλετε να δοκιμάσετε ένα από αυτά τα εργαλεία.





πώς να παρακολουθήσετε βίντεο στο YouTube με περιορισμούς ηλικίας

1. Συλλογή δεδομένων

Οι περισσότεροι άνθρωποι δεν χρησιμοποιούν chatbot μόνο για να πουν ένα γεια. Τα σύγχρονα chatbots έχουν σχεδιαστεί για να επεξεργάζονται και να ανταποκρίνονται σε περίπλοκες ερωτήσεις και αιτήματα, με τους χρήστες να περιλαμβάνουν συχνά πολλές πληροφορίες στα μηνύματά τους. Ακόμα κι αν κάνετε μόνο μια απλή ερώτηση, δεν θέλετε πραγματικά να υπερβαίνει τη συνομιλία σας.





Σύμφωνα με Το τμήμα υποστήριξης του OpenAI , μπορείτε να διαγράψετε τα αρχεία καταγραφής συνομιλιών ChatGPT όποτε θέλετε και αυτά τα αρχεία καταγραφής θα διαγραφούν οριστικά από τα συστήματα του OpenAI μετά από 30 ημέρες. Ωστόσο, η εταιρεία θα διατηρήσει και θα ελέγξει ορισμένα αρχεία καταγραφής συνομιλιών εάν έχουν επισημανθεί για επιβλαβές ή ακατάλληλο περιεχόμενο.

Ένα άλλο δημοφιλές chatbot AI, ο Claude, παρακολουθεί επίσης τις προηγούμενες συνομιλίες σας. Κέντρο υποστήριξης Anthropic δηλώνει ότι ο Claude παρακολουθεί 'τις προτροπές και τα αποτελέσματα στο προϊόν για να σας παρέχει μια συνεπή εμπειρία προϊόντος με την πάροδο του χρόνου σύμφωνα με τους ελέγχους σας.' Μπορείτε να διαγράψετε τις συνομιλίες σας με τον Claude, ώστε να ξεχάσει τι έχετε μιλήσει, αλλά αυτό δεν σημαίνει ότι η Anthropic θα διαγράψει αμέσως τα αρχεία καταγραφής σας από τα συστήματά της.



Αυτό, φυσικά, θέτει το ερώτημα: τηρούνται τα δεδομένα μου ή όχι; Χρησιμοποιεί το ChatGPT ή άλλα chatbots τα δεδομένα μου;

Όμως οι ανησυχίες δεν σταματούν εδώ.





Πώς μαθαίνει το ChatGPT;

Για την παροχή πληροφοριών, μεγάλα γλωσσικά μοντέλα εκπαιδεύονται με τεράστιες ποσότητες δεδομένων. Σύμφωνα με Επιστήμη , μόνο το ChatGPT-4 τροφοδοτήθηκε με 300 δισεκατομμύρια λέξεις πληροφοριών κατά τη διάρκεια της περιόδου εκπαίδευσής του. Αυτό δεν προέρχεται κατευθείαν από μερικές εγκυκλοπαίδειες. Αντίθετα, οι προγραμματιστές chatbot χρησιμοποιούν μαζικές πληροφορίες από το Διαδίκτυο για να εκπαιδεύσουν τα μοντέλα τους. Αυτό μπορεί να περιλαμβάνει δεδομένα από βιβλία, ταινίες, άρθρα, καταχωρήσεις στη Wikipedia, αναρτήσεις ιστολογίου, σχόλια, ακόμη και ιστότοπους κριτικών.

Λάβετε υπόψη ότι, ανάλογα με την πολιτική απορρήτου ενός προγραμματιστή chatbot, ορισμένες από τις προαναφερθείσες πηγές ενδέχεται να μην χρησιμοποιούνται στην εκπαίδευση.





Πολλοί επέκριναν το ChatGPT, ισχυριζόμενοι ότι είναι κάτι σαν εφιάλτης όσον αφορά την ιδιωτικότητα, Το ChatGPT δεν είναι αξιόπιστο . Λοιπόν, γιατί συμβαίνει αυτό;

Εδώ είναι που τα πράγματα γίνονται λίγο θολά. Εάν ρωτήσετε απευθείας το ChatGPT-3.5 εάν έχει πρόσβαση σε κριτικές προϊόντων ή σχόλια άρθρων, θα λάβετε ένα σταθερό αρνητικό. Όπως μπορείτε να δείτε στο παρακάτω στιγμιότυπο οθόνης, το GPT-3.5 δηλώνει ότι δεν του δόθηκε πρόσβαση σε σχόλια άρθρων χρηστών ή κριτικές προϊόντων κατά την εκπαίδευσή του.

  στιγμιότυπο οθόνης συνομιλίας chatgpt-3.5

Αντίθετα, εκπαιδεύτηκε χρησιμοποιώντας «ένα ευρύ φάσμα κειμένων από το Διαδίκτυο, συμπεριλαμβανομένων ιστότοπων, βιβλίων, άρθρων και άλλου διαθέσιμου στο κοινό γραπτού υλικού μέχρι τον Σεπτέμβριο του 2021».

Είναι όμως η ίδια περίπτωση για το GPT-4;

Όταν ρωτήσαμε το GPT-4, μας είπαν ότι 'Το OpenAI δεν χρησιμοποίησε συγκεκριμένες κριτικές χρηστών, προσωπικά δεδομένα ή σχόλια άρθρων' στην περίοδο εκπαίδευσης του chatbot. Επιπλέον, το GPT-4 μας είπε ότι οι απαντήσεις του δημιουργούνται από 'μοτίβα στα δεδομένα στα οποία εκπαιδεύτηκε, τα οποία αποτελούνται κυρίως από βιβλία, άρθρα και άλλο κείμενο από το διαδίκτυο.'

Όταν ερευνήσαμε περαιτέρω, το GPT-4 ισχυρίστηκε ότι συγκεκριμένο περιεχόμενο μέσων κοινωνικής δικτύωσης μπορεί, πράγματι, να περιλαμβάνεται στα δεδομένα εκπαίδευσης, αλλά οι δημιουργοί θα παραμένουν πάντα ανώνυμοι. Το GPT-4 δήλωσε συγκεκριμένα ότι 'Ακόμα κι αν το περιεχόμενο από πλατφόρμες όπως το Reddit ήταν μέρος των δεδομένων εκπαίδευσης, [δεν] έχει πρόσβαση σε συγκεκριμένα σχόλια, αναρτήσεις ή οποιαδήποτε δεδομένα που μπορούν να συνδεθούν ξανά σε έναν μεμονωμένο χρήστη.'

Ένα άλλο αξιοσημείωτο μέρος της απάντησης του GPT-4 είναι το εξής: 'Το OpenAI δεν έχει αναφέρει ρητά κάθε πηγή δεδομένων που χρησιμοποιείται.' Φυσικά, θα ήταν δύσκολο για το OpenAI να απαριθμήσει πηγές αξίας 300 δισεκατομμυρίων λέξεων, αλλά αυτό αφήνει χώρο για εικασίες.

Σε μια Άρθρο Ars Technica , αναφέρθηκε ότι το ChatGPT συλλέγει 'προσωπικές πληροφορίες που λαμβάνονται χωρίς συγκατάθεση.' Στο ίδιο άρθρο αναφέρθηκε η ακεραιότητα των συμφραζομένων, μια έννοια που αναφέρεται μόνο στη χρήση πληροφοριών κάποιου στο πλαίσιο που χρησιμοποιήθηκε αρχικά. Εάν το ChatGPT παραβιάσει αυτήν την ακεραιότητα των συμφραζομένων, τα δεδομένα των ατόμων ενδέχεται να διατρέχουν κίνδυνο.

Ένα άλλο σημείο ανησυχίας εδώ είναι η συμμόρφωση του OpenAI με το Γενικός Κανονισμός Προστασίας Δεδομένων (GDPR) . Πρόκειται για κανονισμό που επιβάλλεται από την Ευρωπαϊκή Ένωση για την προστασία των δεδομένων των πολιτών. Διάφορες ευρωπαϊκές χώρες, συμπεριλαμβανομένης της Ιταλίας και της Πολωνίας, έχουν ξεκινήσει έρευνες για το ChatGPT λόγω ανησυχιών σχετικά με τη συμμόρφωσή του με τον GDPR. Για ένα μικρό χρονικό διάστημα, το ChatGPT απαγορεύτηκε ακόμη και στην Ιταλία λόγω ανησυχιών για το απόρρητο.

Η OpenAI έχει απειλήσει να αποχωρήσει από την ΕΕ στο παρελθόν λόγω προγραμματισμένων κανονισμών για την τεχνητή νοημοσύνη, αλλά έκτοτε ανακλήθηκε.

Το ChatGPT μπορεί να είναι το μεγαλύτερο chatbot AI σήμερα, αλλά τα ζητήματα απορρήτου του chatbot δεν ξεκινούν και δεν τελειώνουν με αυτόν τον πάροχο. Εάν χρησιμοποιείτε ένα σκιερό chatbot με μια ανιαρή πολιτική απορρήτου, οι συνομιλίες σας ενδέχεται να χρησιμοποιηθούν κατάχρηση ή να χρησιμοποιηθούν εξαιρετικά ευαίσθητες πληροφορίες στα δεδομένα εκπαίδευσής του.

2. Κλοπή Δεδομένων

Όπως κάθε διαδικτυακό εργαλείο ή πλατφόρμα, τα chatbots είναι ευάλωτα στο έγκλημα στον κυβερνοχώρο. Ακόμα κι αν ένα chatbot έκανε ό,τι μπορούσε για να προστατεύσει τους χρήστες και τα δεδομένα τους, υπάρχει πάντα η πιθανότητα ένας έξυπνος χάκερ να καταφέρει να διεισδύσει στα εσωτερικά του συστήματα.

Εάν μια δεδομένη υπηρεσία chatbot αποθήκευε τις ευαίσθητες πληροφορίες σας, όπως στοιχεία πληρωμής για την premium συνδρομή σας, δεδομένα επικοινωνίας ή κάτι παρόμοιο, αυτό θα μπορούσε να κλαπεί και να εκμεταλλευτεί εάν συμβεί μια κυβερνοεπίθεση.

Αυτό ισχύει ιδιαίτερα εάν χρησιμοποιείτε ένα λιγότερο ασφαλές chatbot του οποίου οι προγραμματιστές δεν έχουν επενδύσει σε επαρκή προστασία ασφαλείας. Όχι μόνο θα μπορούσαν να παραβιαστούν τα εσωτερικά συστήματα της εταιρείας, αλλά ο δικός σας λογαριασμός έχει την πιθανότητα να παραβιαστεί εάν δεν έχει ειδοποιήσεις σύνδεσης ή επίπεδο ελέγχου ταυτότητας.

Τώρα που τα chatbot τεχνητής νοημοσύνης είναι τόσο δημοφιλή, οι εγκληματίες του κυβερνοχώρου έχουν φυσικά συρρέει στη χρήση αυτής της βιομηχανίας για τις απάτες τους. Οι ψεύτικοι ιστότοποι και οι προσθήκες ChatGPT αποτελούν σημαντικό πρόβλημα από τότε που το chatbot του OpenAI κυκλοφόρησε στα τέλη του 2022, με τους ανθρώπους να πέφτουν σε απάτες και να δίνουν προσωπικές πληροφορίες με το πρόσχημα της νομιμότητας και της εμπιστοσύνης.

Τον Μάρτιο του 2023, η MUO ανέφερε σε α ψεύτικη επέκταση ChatGPT Chrome που κλέβει στοιχεία σύνδεσης στο Facebook . Το πρόσθετο θα μπορούσε να εκμεταλλευτεί μια κερκόπορτα του Facebook για να χακάρει λογαριασμούς υψηλού προφίλ και να κλέψει cookies χρηστών. Αυτό είναι μόνο ένα παράδειγμα πολυάριθμων ψεύτικων υπηρεσιών ChatGPT που έχουν σχεδιαστεί για να ξεγελούν θύματα που δεν γνωρίζουν.

3. Μόλυνση από κακόβουλο λογισμικό

Εάν χρησιμοποιείτε ένα σκιερό chatbot χωρίς να το καταλάβετε, μπορεί να βρείτε το chatbot που σας παρέχει συνδέσμους προς κακόβουλους ιστότοπους. Ίσως το chatbot σας έχει ειδοποιήσει για ένα δελεαστικό δώρο ή παρείχε μια πηγή για μια από τις δηλώσεις του. Εάν οι φορείς εκμετάλλευσης της υπηρεσίας έχουν παράνομες προθέσεις, το όλο θέμα της πλατφόρμας μπορεί να είναι η διάδοση κακόβουλου λογισμικού και απάτες μέσω κακόβουλων συνδέσμων.

Εναλλακτικά, οι χάκερ μπορεί να παραβιάσουν μια νόμιμη υπηρεσία chatbot και να τη χρησιμοποιήσουν για τη διάδοση κακόβουλου λογισμικού. Εάν αυτό το chatbot είναι πολύ κόσμο, τότε χιλιάδες ή ακόμα και εκατομμύρια χρήστες θα εκτεθούν σε αυτό το κακόβουλο λογισμικό. Ψεύτικες εφαρμογές ChatGPT υπήρχαν ακόμη και στο Apple App Store , γι 'αυτό είναι καλύτερο να περπατήσετε προσεκτικά.

Γενικά, δεν πρέπει ποτέ να κάνετε κλικ σε συνδέσμους που παρέχει ένα chatbot πριν τρέχοντάς το μέσω ενός ιστότοπου ελέγχου συνδέσμων . Αυτό μπορεί να φαίνεται ενοχλητικό, αλλά είναι πάντα καλύτερο να είστε σίγουροι ότι ο ιστότοπος στον οποίο οδηγείστε δεν έχει κακόβουλο σχεδιασμό.

βατόμουρο pi 3 vs b+

Επιπλέον, δεν πρέπει ποτέ να εγκαταστήσετε πρόσθετα και επεκτάσεις chatbot χωρίς να επαληθεύσετε πρώτα τη νομιμότητά τους. Κάντε μια μικρή έρευνα γύρω από την εφαρμογή για να δείτε αν έχει ελεγχθεί καλά και κάντε επίσης μια αναζήτηση στον προγραμματιστή της εφαρμογής για να δείτε αν βρείτε κάτι σκιερό.

Τα Chatbots δεν είναι αδιαπέραστα σε ζητήματα απορρήτου

Όπως τα περισσότερα διαδικτυακά εργαλεία στις μέρες μας, τα chatbots έχουν επανειλημμένα επικριθεί για πιθανές παγίδες ασφάλειας και ιδιωτικότητας. Είτε πρόκειται για έναν πάροχο chatbot που περιορίζει την ασφάλεια των χρηστών είτε για τους συνεχείς κινδύνους κυβερνοεπιθέσεων και απάτης, είναι σημαντικό να γνωρίζετε τι συλλέγει η υπηρεσία chatbot σας και εάν εφαρμόζει επαρκή μέτρα ασφαλείας.