Loading

Οι δυνατότητες της τεχνητής νοημοσύνης, ειδικά της γενετικής τεχνητής νοημοσύνης, είναι τεράστιες. 

Ωστόσο, για την επιδίωξη προόδου εντός αυτών των νέων συνόρων καινοτομίας, πρέπει να υπάρχουν σαφή πρότυπα ασφάλειας του κλάδου για την κατασκευή και την ανάπτυξη αυτής της τεχνολογίας με υπεύθυνο τρόπο.

 Γι’ αυτό σήμερα είμαστε ενθουσιασμένοι που παρουσιάζουμε το Secure AI Framework (SAIF), ένα εννοιολογικό πλαίσιο για ασφαλή συστήματα AI.

  • Για μια περίληψη του SAIF, κάντε κλικ σε αυτό το PDF .
  • Για παραδείγματα του τρόπου με τον οποίο οι επαγγελματίες μπορούν να εφαρμόσουν το SAIF, κάντε κλικ σε αυτό το PDF .

Γιατί παρουσιάζουμε το SAIF τώρα

Το SAIF εμπνέεται από τις βέλτιστες πρακτικές ασφάλειας – όπως η αναθεώρηση, η δοκιμή και ο έλεγχος της αλυσίδας εφοδιασμού – που έχουμε εφαρμόσει στην ανάπτυξη λογισμικού, ενσωματώνοντας παράλληλα την κατανόησή μας για τις μεγάλες τάσεις ασφαλείας και τους κινδύνους που αφορούν συγκεκριμένα συστήματα τεχνητής νοημοσύνης.

Ένα πλαίσιο στον δημόσιο και τον ιδιωτικό τομέα είναι απαραίτητο για να διασφαλιστεί ότι οι υπεύθυνοι παράγοντες προστατεύουν την τεχνολογία που υποστηρίζει τις εξελίξεις της τεχνητής νοημοσύνης, έτσι ώστε όταν εφαρμόζονται μοντέλα τεχνητής νοημοσύνης, να είναι ασφαλή από προεπιλογή. Σήμερα σηματοδοτεί ένα σημαντικό πρώτο βήμα.

Με τα χρόνια στη Google, έχουμε υιοθετήσει μια ανοιχτή και συνεργατική προσέγγιση για την ασφάλεια στον κυβερνοχώρο. Αυτό περιλαμβάνει το συνδυασμό πληροφοριών πρώτης γραμμής, τεχνογνωσίας και καινοτομίας με τη δέσμευση να ανταλλάσσουμε πληροφορίες για τις απειλές με άλλους για να βοηθήσουμε στην ανταπόκριση – και στην πρόληψη – επιθέσεων στον κυβερνοχώρο. Με βάση αυτή την προσέγγιση, το SAIF έχει σχεδιαστεί για να βοηθά στον μετριασμό των κινδύνων που σχετίζονται με συστήματα τεχνητής νοημοσύνης, όπως η κλοπή του μοντέλου , η δηλητηρίαση δεδομένων των δεδομένων εκπαίδευσης , η έγχυση κακόβουλων εισροών μέσω άμεσης έγχυσης και η εξαγωγή εμπιστευτικών πληροφοριών στα δεδομένα εκπαίδευσης. Καθώς οι δυνατότητες τεχνητής νοημοσύνης ενσωματώνονται όλο και περισσότερο σε προϊόντα σε όλο τον κόσμο, τηρώντας μια τολμηρή και υπεύθυνηπλαίσιο θα είναι ακόμη πιο κρίσιμο.

Και με αυτό, ας ρίξουμε μια ματιά στο SAIF και τα έξι βασικά του στοιχεία:

εικονογράφηση πράσινων επιταγών και γραμματοκιβωτίων

1. Επεκτείνετε ισχυρά θεμέλια ασφάλειας στο οικοσύστημα AI

Αυτό περιλαμβάνει τη μόχλευση ασφαλών από προεπιλογή προστασίες υποδομής και τεχνογνωσία που έχουν δημιουργηθεί τις τελευταίες δύο δεκαετίες για την προστασία συστημάτων, εφαρμογών και χρηστών τεχνητής νοημοσύνης. Ταυτόχρονα, αναπτύξτε οργανωτική τεχνογνωσία για να συμβαδίσετε με τις εξελίξεις στην τεχνητή νοημοσύνη και αρχίστε να κλιμακώνετε και να προσαρμόζετε τις προστασίες υποδομής στο πλαίσιο της τεχνητής νοημοσύνης και των εξελισσόμενων μοντέλων απειλών. Για παράδειγμα, τεχνικές έγχυσης όπως η έγχυση SQL υπάρχουν εδώ και αρκετό καιρό και οι οργανισμοί μπορούν να προσαρμόσουν τους μετριασμούς, όπως η απολύμανση και ο περιορισμός των εισροών, για να βοηθήσουν στην καλύτερη άμυνα έναντι επιθέσεων τύπου άμεσης έγχυσης .

εικονογράφηση ενός κόκκινου καπέλου και μαύρα γυαλιά και στόχαστρο σταυρόνημα

2. Επεκτείνετε την ανίχνευση και την απόκριση για να φέρετε την τεχνητή νοημοσύνη στο σύμπαν των απειλών ενός οργανισμού

Η επικαιρότητα είναι κρίσιμη για τον εντοπισμό και την απόκριση σε συμβάντα στον κυβερνοχώρο που σχετίζονται με την τεχνητή νοημοσύνη και η επέκταση των πληροφοριών απειλών και άλλων δυνατοτήτων σε έναν οργανισμό βελτιώνει και τα δύο. Για τους οργανισμούς, αυτό περιλαμβάνει την παρακολούθηση των εισροών και των εξόδων των παραγωγικών συστημάτων τεχνητής νοημοσύνης για τον εντοπισμό ανωμαλιών και τη χρήση πληροφοριών απειλών για την πρόβλεψη επιθέσεων. Αυτή η προσπάθεια απαιτεί συνήθως συνεργασία με ομάδες εμπιστοσύνης και ασφάλειας, πληροφοριών απειλών και αντιμετώπισης της κατάχρησης.

εικονογράφηση ενός κρανίου και ασπίδα και σπαθί

3. Αυτοματοποιήστε τις άμυνες για να συμβαδίζετε με τις υπάρχουσες και τις νέες απειλές

Οι τελευταίες καινοτομίες τεχνητής νοημοσύνης μπορούν να βελτιώσουν την κλίμακα και την ταχύτητα των προσπαθειών απόκρισης σε συμβάντα ασφαλείας. Οι αντίπαλοι πιθανότατα θα χρησιμοποιήσουν την τεχνητή νοημοσύνη για να κλιμακώσουν τον αντίκτυπό τους , επομένως είναι σημαντικό να χρησιμοποιήσετε την τεχνητή νοημοσύνη και τις τρέχουσες και αναδυόμενες δυνατότητές της για να παραμείνετε ευκίνητοι και οικονομικά αποδοτικοί για την προστασία από αυτούς.

εικονογράφηση ενός πύργου του κάστρου ως ασπίδα

4. Εναρμονίστε τους ελέγχους σε επίπεδο πλατφόρμας για να εξασφαλίσετε συνεπή ασφάλεια σε ολόκληρο τον οργανισμό

Η συνέπεια μεταξύ των πλαισίων ελέγχου μπορεί να υποστηρίξει τον μετριασμό του κινδύνου τεχνητής νοημοσύνης και να κλιμακώσει τις προστασίες σε διαφορετικές πλατφόρμες και εργαλεία για να διασφαλίσει ότι οι καλύτερες προστασίες είναι διαθέσιμες σε όλες τις εφαρμογές τεχνητής νοημοσύνης με επεκτάσιμο και οικονομικά αποδοτικό τρόπο. Στην Google, αυτό περιλαμβάνει την επέκταση ασφαλών από προεπιλογή προστασίες σε πλατφόρμες τεχνητής νοημοσύνης, όπως το Vertex AI και το Security AI Workbench , και τη δημιουργία στοιχείων ελέγχου και προστασίες στον κύκλο ζωής ανάπτυξης λογισμικού. Οι δυνατότητες που αντιμετωπίζουν περιπτώσεις γενικής χρήσης, όπως το Perspective API , μπορούν να βοηθήσουν ολόκληρο τον οργανισμό να επωφεληθεί από αιχμής προστασίας.

εικονογράφηση μιας λάμπας

5. Προσαρμόστε τα στοιχεία ελέγχου για να προσαρμόσετε τους μετριασμούς και να δημιουργήσετε ταχύτερους βρόχους ανάδρασης για ανάπτυξη τεχνητής νοημοσύνης

Η συνεχής δοκιμή των εφαρμογών μέσω της συνεχούς μάθησης μπορεί να διασφαλίσει ότι οι δυνατότητες ανίχνευσης και προστασίας αντιμετωπίζουν το μεταβαλλόμενο περιβάλλον απειλής. Αυτό περιλαμβάνει τεχνικές όπως η ενισχυτική μάθηση που βασίζεται σε περιστατικά και τα σχόλια των χρηστών και περιλαμβάνει βήματα όπως ενημέρωση συνόλων δεδομένων εκπαίδευσης, βελτιστοποίηση μοντέλων για να ανταποκρίνονται στρατηγικά σε επιθέσεις και επιτρέποντας στο λογισμικό που χρησιμοποιείται για τη δημιουργία μοντέλων να ενσωματώνει περαιτέρω ασφάλεια στο πλαίσιο (π.χ. εντοπισμός ανώμαλη συμπεριφορά). Οι οργανισμοί μπορούν επίσης να διεξάγουν τακτικές ασκήσεις κόκκινων ομάδων για να βελτιώσουν τη διασφάλιση ασφάλειας για προϊόντα και δυνατότητες που τροφοδοτούνται με τεχνητή νοημοσύνη.

εικονογράφηση ενός μεγεθυντικού φακού

6. Προσδιορίστε τους κινδύνους του συστήματος τεχνητής νοημοσύνης στις γύρω επιχειρηματικές διαδικασίες

Τέλος, η διεξαγωγή αξιολογήσεων κινδύνου από άκρο σε άκρο που σχετίζονται με τον τρόπο με τον οποίο οι οργανισμοί θα αναπτύξουν την τεχνητή νοημοσύνη μπορεί να βοηθήσει στη λήψη αποφάσεων. Αυτό περιλαμβάνει αξιολόγηση του επιχειρηματικού κινδύνου από άκρο σε άκρο, όπως η σειρά δεδομένων, η επικύρωση και η παρακολούθηση της λειτουργικής συμπεριφοράς για ορισμένους τύπους εφαρμογών. Επιπλέον, οι οργανισμοί θα πρέπει να κατασκευάζουν αυτοματοποιημένους ελέγχους για την επικύρωση της απόδοσης της τεχνητής νοημοσύνης.

Γιατί υποστηρίζουμε μια ασφαλή κοινότητα AI για όλους

Υποστηρίξαμε εδώ και καιρό, και συχνά αναπτύξαμε, βιομηχανικά πλαίσια για την αύξηση του πήχη ασφαλείας και τη μείωση του συνολικού κινδύνου. Συνεργαστήκαμε με άλλους για την κυκλοφορία του πλαισίου Supply-chain Levels for Software Artifacts (SLSA) για τη βελτίωση της ακεραιότητας της εφοδιαστικής αλυσίδας λογισμικού και η πρωτοποριακή μας δουλειά στο μοντέλο πρόσβασης BeyondCorp οδήγησε στις αρχές μηδενικής εμπιστοσύνης που είναι τα πρότυπα του κλάδου σήμερα. Αυτό που μάθαμε από αυτές και άλλες προσπάθειες είναι ότι για να πετύχεις μακροπρόθεσμα, πρέπει να οικοδομήσεις μια κοινότητα για να υποστηρίξεις και να προωθήσεις το έργο. Γι’ αυτό, είμαστε ενθουσιασμένοι που ανακοινώνουμε τα πρώτα βήματα στο ταξίδι μας για τη δημιουργία μιας κοινότητας SAIF για όλους.

Πώς η Google θέτει σε δράση το SAIF

Κάνουμε ήδη πέντε βήματα για να υποστηρίξουμε και να προωθήσουμε ένα πλαίσιο που λειτουργεί για όλους.

  1. Ενίσχυση της υποστήριξης του κλάδου για SAIF με την ανακοίνωση βασικών συνεργατών και συντελεστών τους επόμενους μήνες και συνεχιζόμενη δέσμευση του κλάδου για να βοηθήσει στην ανάπτυξη του πλαισίου διαχείρισης κινδύνου NIST AI και του ISO/IEC 42001 AI Management System Standard (το πρώτο πρότυπο πιστοποίησης AI του κλάδου). Αυτά τα πρότυπα βασίζονται σε μεγάλο βαθμό στις αρχές ασφαλείας του NIST Cybersecurity Framework και του ISO/IEC 27001 Security Management System — στα οποία θα συμμετέχει η Google για να διασφαλίσει ότι οι προγραμματισμένες ενημερώσεις εφαρμόζονται σε αναδυόμενες τεχνολογίες όπως η AI — και συνάδουν με τα στοιχεία SAIF.
  2. Συνεργασία απευθείας με οργανισμούς, συμπεριλαμβανομένων πελατών και κυβερνήσεων, για να τους βοηθήσουμε να κατανοήσουν πώς να αξιολογούν τους κινδύνους ασφάλειας της τεχνητής νοημοσύνης και να τους μετριάζουν. Αυτό περιλαμβάνει τη διεξαγωγή εργαστηρίων με επαγγελματίες και τη συνέχιση της δημοσίευσης βέλτιστων πρακτικών για την ασφαλή ανάπτυξη συστημάτων AI.
  3. Κοινή χρήση πληροφοριών από τις κορυφαίες ομάδες πληροφοριών απειλών της Google, όπως η Mandiant και η TAG , σχετικά με τη δραστηριότητα στον κυβερνοχώρο που περιλαμβάνει συστήματα τεχνητής νοημοσύνης. Για να μάθετε περισσότερα σχετικά με μερικούς από τους τρόπους με τους οποίους οι επαγγελματίες της Google αξιοποιούν τη γενετική τεχνητή νοημοσύνη για να εντοπίζουν ταχύτερα τις απειλές, να εξαλείφουν τον κόπο και να επιλύουν καλύτερα τα κενά ταλέντων ασφαλείας, δείτε εδώ .
  4. Επέκταση των προγραμμάτων μας για τους κυνηγούς σφαλμάτων (συμπεριλαμβανομένου του Προγράμματος επιβράβευσης ευπάθειας ) για την επιβράβευση και την παροχή κινήτρων για την έρευνα σχετικά με την ασφάλεια και την ασφάλεια της τεχνητής νοημοσύνης.
  5. Συνέχιση της παροχής ασφαλών προσφορών τεχνητής νοημοσύνης με συνεργάτες όπως το GitLab και το Cohesity και η περαιτέρω ανάπτυξη νέων δυνατοτήτων για να βοηθήσει τους πελάτες να δημιουργήσουν ασφαλή συστήματα. Αυτό περιλαμβάνει τη δέσμευσή μας στην κοινότητα ανοιχτού κώδικα και σύντομα θα δημοσιεύσουμε πολλά εργαλεία ανοιχτού κώδικα για να βοηθήσουμε στην εφαρμογή στοιχείων SAIF για την ασφάλεια της τεχνητής νοημοσύνης.

Καθώς προχωράμε στο SAIF, θα συνεχίσουμε να μοιραζόμαστε την έρευνα και να εξερευνούμε μεθόδους που βοηθούν στη χρήση της τεχνητής νοημοσύνης με ασφαλή τρόπο. Δεσμευόμαστε να συνεργαστούμε με τις κυβερνήσεις, τη βιομηχανία και τον ακαδημαϊκό κόσμο για να μοιραστούμε γνώσεις και να επιτύχουμε κοινούς στόχους για να διασφαλίσουμε ότι αυτή η εξαιρετικά χρήσιμη τεχνολογία λειτουργεί για όλους και ότι εμείς ως κοινωνία την κάνουμε σωστά.

Leave a Reply

Your email address will not be published. Required fields are marked *

Awesome Works
Awesome Works

Related Posts

Η Εταιρία

Είμαστε η GFD Web Brain, μια δημιουργική, καινοτόμα εταιρία δημιουργίας ψηφιακού περιεχομένου, για κάθε είδους επιχείρηση ή οργανισμό.

Τηλεφωνικό Κέντρο
Χρήσιμα
metasximatismos