
Dobre zabezpieczenia są kluczem do eksperymentowania z nowymi technologiami, w tym generatywną sztuczną inteligencją. Przekonuje do tego Chris Betz, Chief Information Security Officer w AWS
Generatywna sztuczna inteligencja może zmienić niemalże każde doświadczenie klienta dzięki potężnym narzędziom dostępnym dla każdego. Jednak bez jasnego zarządzania może budzić obawy dotyczące bezpieczeństwa i prywatności. W rezultacie nierzadko zdarza się, że pracownicy organizacji zainteresowanych generatywną sztuczną inteligencją postrzegają zespół ds. bezpieczeństwa jako „dział blokujący”. Jest to nie tylko błędne myślenie, ale także szkodliwe dla biznesu. W AWS od zawsze wierzymy, że bezpieczeństwo jest czynnikiem wspomagającym biznes – zmniejsza ryzyko, wzmacnia odporność i umożliwia klientom szybsze i pewniejsze wprowadzanie innowacji, zwłaszcza w szybko ewoluującej erze generatywnej sztucznej inteligencji.
Chcemy, aby zespoły ds. bezpieczeństwa naszych klientów znalazły się w miejscu, gdzie będą postrzegane jako „dział pomocny”, w którym współpracuje się z pracownikami, aby wspierać ich cele biznesowe, rozumieć ryzyko i pomagać im we wdrażaniu niezbędnych środków zapobiegawczych.
Bezpieczeństwo to obowiązek każdego
Opublikowany niedawno raport amerykańskiego Departamentu Bezpieczeństwa Krajowego (DHS) jasno pokazuje, że niedostateczna kultura bezpieczeństwa może być główną przyczyną możliwych do uniknięcia błędów, które prowadzą do włamań i co gorsza, pozostają niewykryte. W AWS zespół ds. bezpieczeństwa podlega bezpośrednio CEO w celu wbudowania bezpieczeństwa w strukturę AWS. Przy czym zapewnianie bezpieczeństwa to nie tylko zadanie zespołu ds. bezpieczeństwa – to obowiązek każdego w firmie.
Każdy zespół produktowy jest odpowiedzialny za bezpieczeństwo dostarczanej usługi. Bezpieczeństwo jest wbudowane w każdą tzw. mapę drogową produktu, plan inżynieryjny i spotkania statusowe, tak samo jak możliwości biznesowe, efektywność i koszty. Nawet najlepsze zabezpieczenia nie są czymś, co można dokleić na końcu procesu, bezpieczeństwo jest raczej integralne i fundamentalne.
Oddanie klientom kontroli nad danymi
Największą obawą, jaką słyszę od klientów sprawdzających możliwości wdrożenia generatywnej sztucznej inteligencji, jest to, jak chronić dane, w tym dane klientów końcowych. Od samego początku infrastruktura i usługi AWS AI miały wbudowane funkcje bezpieczeństwa i prywatności, aby zapewnić klientom kontrolę nad ich danymi. Nasz AWS Nitro System odgrywa tutaj kluczową rolę nakładając ograniczenia, aby nikt, w tym nikt w AWS, nie mógł uzyskać dostępu logicznego do infrastruktury podstawowej, obciążeń roboczych lub danych działających na wirtualnych serwerach Amazon Elastic Compute Cloud (Amazon EC2) klientów.
Jeśli chodzi o bezpieczne tworzenie generatywnych aplikacji AI, nasza usługa Amazon Bedrock zapewnia klientom pełną kontrolę nad danymi, których używają do dostosowywania podstawowych modeli stojących za ich aplikacjami. Dzięki usłudze Bedrock dane są szyfrowane podczas przesyłania i przechowywania z zapewnieniem prywatności i poufności.
Większe bezpieczeństwo
Ta sama moc i łatwość obsługi, która sprawia, że generatywna sztuczna inteligencja jest niezwykle atrakcyjna dla klientów, czyni ją równie niezbędnym narzędziem dla administratorów IT i zespołów ds. bezpieczeństwa, aby pomóc im skuteczniej identyfikować i rozwiązywać problemy. Na tegorocznym wydarzeniu AWS re:Inforce 2024 ogłosiliśmy dwie nowe funkcje bezpieczeństwa oparte na generatywnej sztucznej inteligencji:
Nowa funkcja generowania zapytań w języku naturalnym oparta na sztucznej inteligencji (wersja zapoznawcza) umożliwia łatwiejszą i szybszą analizę zdarzeń związanych z aktywnością AWS w CloudTrail Lake, usłudze, która pozwala przechowywać i wyszukiwać zdarzenia w ramach zapewnienia bezpieczeństwa danej organizacji. Teraz można zadawać pytania w języku angielskim, takie jak „Ile błędów zostało zarejestrowanych w ciągu ostatniego tygodnia dla każdej usługi i jaka była przyczyna każdego błędu?”, a AWS CloudTrail wygeneruje zapytanie.
Z kolei klienci korzystający z AWS Audit Manager mogą teraz uzyskać dostęp do wstępnie zbudowanej struktury i sprawdzić, czy wdrażanie generatywnej sztucznej inteligencji w Amazon SageMaker jest zgodne z najlepszymi praktykami zalecanymi przez AWS. Od teraz klienci korzystający z SageMaker mogą rozpocząć audyt wykorzystania generatywnej sztucznej inteligencji i zautomatyzować proces zbierania dowodów, zapewniając to samo podejście do bieżącego monitorowania wykorzystania modeli sztucznej inteligencji i nadanych uprawnień, oznaczania wrażliwych danych i ostrzegania o wszelkich problemach.
Najlepszą strategią jest dobry atak
Każdego dnia w infrastrukturze AWS wyszukujemy, wykrywamy i udaremniamy cyberataki. Dzięki największej sieci publicznej spośród wszystkich dostawców usług w chmurze, AWS ma nieporównywalne możliwości wglądu w określone działania w internecie w czasie rzeczywistym. Jesienią ubiegłego roku podzieliliśmy się szczegółami na temat MadPot, naszej globalnie rozproszonej sieci czujników zagrożeń (zwanych również honeypotami), które pomagają naszym zespołom zrozumieć taktykę i techniki atakujących. Za każdym razem, gdy atakujący próbuje zaatakować jeden z naszych czujników zagrożeń, wykorzystujemy tę wiedzę, aby pomóc chronić klientów.
Ponadto na tegorocznym wydarzeniu AWS re:Inforce 2024 po raz pierwszy publicznie zaprezentowaliśmy Sonaris, wewnętrzne narzędzie, którego używamy do analizy ruchu sieciowego w celu identyfikowania i powstrzymywania złośliwych prób połączenia się z dużą liczbą kont klientów w celu znalezienia luk w zabezpieczeniach. W okresie od maja 2023 do kwietnia 2024 r. Sonaris udaremnił ponad 24 mld prób uzyskania dostępu do danych klientów przechowywanych w usłudze Amazon Simple Storage Service (Amazon S3) i uniemożliwił prawie 2,6 bln prób dostępu do usług szczególnie narażonych na ataki, działających na wirtualnych serwerach klientów Amazon EC2. To oszałamiająca ilość pracy, która dzieje się za kulisami, aby zapewnić nieprzerwaną działalność każdego klienta.
Potrzeba opanowania podstaw
Hasła pomagają chronić zasoby cyfrowe, ale są niewystarczające. Uwierzytelnianie wieloskładnikowe (MFA), które wymaga od użytkowników podania czegoś więcej niż tylko hasła w celu uzyskania dostępu do strony internetowej lub aplikacji, działa jako dodatkowa warstwa zabezpieczeń. Istnieje od ponad 20 lat, choć wciąż nie jest powszechnie stosowane.
Aby pomóc klientom AWS w ochronie ich kont, na początku tego roku uruchomiliśmy nowy program, który nałoży wymóg MFA dla głównych kont użytkowników AWS Organizations – narzędzia do zarządzania środowiskami AWS z wieloma kontami – w celu zmniejszenia ryzyka przejęcia konta, oferując klientom bezpłatne klucze do uwierzytelniania wieloskładnikowego (MFA). By jeszcze bardziej ułatwić wdrażanie MFA, na tegorocznym wydarzeniu AWS re:Inforce 2024 ogłosiliśmy, że AWS Identity and Access Management (IAM) – narzędzie używane do bezpiecznego zarządzania tożsamościami i dostępem do usług i zasobów AWS – obsługuje teraz klucze dostępu jako drugą metodę uwierzytelniania. Passkeys wykorzystują kryptografię klucza publicznego, który umożliwia silne uwierzytelnianie odporne na phishing i jest bezpieczniejsze niż hasła.
Zaangażowanie w innowacje
Każdego dnia najszybciej rozwijające się start-upy na świecie, największe przedsiębiorstwa i organizacje rządowe obdarzone największym zaufaniem używają AWS do obsługi swojej infrastruktury technologicznej. Wybierają nas, ponieważ bezpieczeństwo jest naszym najwyższym priorytetem od samego początku. Stale wprowadzamy innowacje w imieniu naszych klientów, aby mogli szybko i bezpiecznie rozwijać swoje firmy, a nasze osiągnięcia w zakresie bezpieczeństwa w chmurze nie mają sobie równych. Niemniej, wyzwania związane z cyberbezpieczeństwem będą nadal ewoluować i chociaż jesteśmy dumni z naszych dotychczasowych osiągnięć, jesteśmy też zobowiązani do ciągłego wprowadzania usprawnień. Wprowadzamy innowacje, rozwijamy nasze technologie i kulturę bezpieczeństwa w organizacji.













