• CloudPouch
  • Blog
  • Wydarzenia NEW!
  • O stronie
  • Home

Ciekawe linki z newslettera - wydanie 202

  • Paweł Zubkiewicz
  • 8 min.

Ciekawe linki z newslettera - wydanie 202
Poniżej znajdują się linki do newsów od AWS oraz artykułów i blog postów napisanych przez społeczność, które zebrałem w wydaniu numer 202 newslettera Serverless Polska. Strona ta została opublikowana tydzień po wysłaniu mailingu, dlatego jeśli chcesz być zawsze na bieżąco, to zasubskrybuj mój newsletter.

🗞️ Newsy

Prosto od AWS.

⚡️ AWS launches LocalStack integration in VS Code IDE to simplify local testing for serverless applications

AWS zintegrowało LocalStack bezpośrednio z Visual Studio Code (VS Code), pozwalając deweloperom na bezproblemowe testowanie i debugowanie aplikacji serverless lokalnie w ich IDE, bez skomplikowanej konfiguracji.

  • Ta integracja pozwala deweloperom emulować usługi AWS takie jak Lambda, SQS, API Gateway i DynamoDB za pomocą LocalStack przez AWS Toolkit dla VS Code, eliminując potrzebę ręcznego konfigurowania portów czy zmiany kodu.
  • Deweloperzy mogą teraz podłączyć się do środowiska LocalStack, deployować aplikacje i debugować funkcje Lambda lokalnie przez uproszczony proces konfiguracji, ułatwiając lokalny workflow dla serverlessowego developmentu.

Dzięki osadzeniu LocalStack w VS Code, AWS znacznie redukuje przełączanie kontekstu i narzut konfiguracyjny, sprawiając, że lokalne testy serverless są bardziej dostępne i efektywne dla deweloperów. Link »
→ Więcej informacji w powiązanym blog poście.

⚡️ Amazon SQS increases maximum message payload size to 1 MiB

Amazon SQS zwiększył maksymalny rozmiar payloadu wiadomości z 256 KiB do 1 MiB, co pozwala klientom wysyłać i odbierać większe wiadomości zarówno przez standardowe, jak i kolejki FIFO.

  • To usprawnienie wspiera rosnące obciążenia w integracji aplikacji, IoT i AI, umożliwiając przesyłanie większych ładunków bez potrzeby dzielenia czy offloadingowania danych.
  • Event source mapping w AWS Lambda dla SQS został zaktualizowany, by obsługiwać nowy 1 MiB rozmiar ładunku, zapewniając bezproblemowe przetwarzanie większych wiadomości w serverlessowych workflow.

Należy jednak pamiętać, że rozliczani jesteśmy za każde 64kB. Link »

⚡️ Announcing the AWS Billing and Cost Management MCP server

AWS wprowadził Model Context Protocol (MCP) server do Billing i Cost Management, który jest już dostępny na repozytorium AWS Labs na GitHubie, umożliwiając analizę kosztów wspieraną przez AI oraz optymalizację w różnych kompatybilnych z MCP asystentach.

  • MCP server pozwala na integrację z AI narzędziami takimi jak Q Developer CLI, Kiro IDE, Visual Studio Code czy Claude Desktop, żeby analizować historyczne wydatki, wyłapywać możliwości optymalizacji kosztów, szacować koszty nowych workloadów i wykrywać anomalie.
  • Posiada dedykowany silnik kalkulacyjny oparty na SQL do precyzyjnych, odtwarzalnych obliczeń kosztów i zużycia, radząc sobie z dużymi wolumenami danych i bezpiecznie łącząc się z AWS Billing i Cost Management przy użyciu standardowych credentiali.

Ta premiera rozszerza możliwości FinOps wspierane przez AI poza konsolę AWS, pozwalając developerom i zespołom chmurowym na integrację zaawansowanych funkcji zarządzania kosztami bezpośrednio w ich ulubionych narzędziach AI. Warto też pamiętać, że nie do wszystkiego zawsze należy używać AI - w tym miejscu gorąco polecam CloudPouch. Link »
→ Więcej informacji w powiązanym blog poście.

⚡️ Announcing the AWS Billing and Cost Management MCP server

AWS wypuściło Model Context Protocol (MCP) server dla Billing and Cost Management, co pozwala AI assistantom analizować historyczne wydatki, wykrywać okazje do oszczędności i szacować koszty nowych workloadów.

  • MCP server integruje się z każdym MCP-kompatybilnym AI assistantem, dostarczając rozbudowane analizy kosztów, detekcję anomalii i insighty cenowe wykraczające poza konsolę Amazon Q Developer.
  • Ma silnik kalkulacji oparty na SQL, co pozwala na dokładne, powtarzalne obliczenia na gigantycznych danych dotyczących kosztów i zużycia, wspierając narzędzia takie jak Q Developer CLI, Kiro IDE, VS Code czy Claude Desktop.

Ten open-source’owy server usprawnia FinOps workflowy, wprowadzając mocne, AI-driven funkcje zarządzania kosztami do różnych środowisk deweloperskich, upraszczając prognozowanie kosztów i optymalizację przy minimalnej konfiguracji. Link »

⚡️ Amazon DynamoDB adds support for Console-to-Code

Amazon DynamoDB teraz wspiera Console-to-Code, napędzane przez Amazon Q Developer, co pozwala devom szybko generować szablony infra-as-code z akcji w konsoli, ułatwiając automatyzację zasobów DynamoDB.

  • Console-to-Code łapie twoje operacje w konsoli DynamoDB i korzysta z generatywnego AI, żeby podpowiedzieć kod w formatach takich jak AWS CDK (TypeScript, Python, Java) albo CloudFormation (YAML, JSON).
  • Ta funkcja upraszcza tworzenie i automatyzację infra DynamoDB na dużą skalę, dając możliwość łatwej personalizacji jako punkt startowy do produkcyjnych workflow.

To usprawnienie płynnie przeprowadza z ręcznego setupu w konsoli do zautomatyzowanego kodu IaC, redukując czas i wysiłek potrzebny do programowego provisionowania i zarządzania zasobami DynamoDB. Link »

⚡️ OpenAI open weight models now in Amazon Bedrock and Amazon SageMaker JumpStart

AWS teraz oferuje otwarte modele wag OpenAI, gpt-oss-120b i gpt-oss-20b, przez Amazon Bedrock i Amazon SageMaker JumpStart, zwiększając elastyczność i kontrolę nad użyciem modeli AI.

  • Te modele mają 128K okno kontekstu, regulowany poziom rozumowania, wsparcie dla integracji zewnętrznych tooli oraz pełne chain-of-thought output, co czyni je idealnymi do kodowania, analiz naukowych i rozumowania matematycznego.
  • Dostępne w wielu regionach AWS, można je odpalić przez zunifikowane API Amazon Bedrock albo SageMaker JumpStart, co pozwala na płynne eksperymentowanie, customizację i enterprise-grade security z opcjami skalowalnego deploymentu.

Ta rozbudowa daje devom i data scientistom większą swobodę innowacji z zaawansowanymi otwartymi modelami wagowymi, przy jednoczesnej kontroli nad danymi i uproszczeniu integracji w całych AI workflow. Link »
→ Więcej informacji w powiązanym blog poście.

⚡️ AWS Budgets now supports Billing View for cross-account cost monitoring

AWS Budgets teraz wspiera integrację z Billing View, co pozwala organizacjom tworzyć budżety obejmujące wiele kont członkowskich w Organizacji bez potrzeby dostępu do konta zarządzającego.

  • Budżety można tworzyć korzystając z filtrowanych widoków opartych na tagach alokacji kosztów lub konkretnych kontach AWS, co pozwala na dopasowane monitorowanie budżetów do struktury biznesowej i potrzeb operacyjnych.
  • Ta funkcja zwiększa bezpieczeństwo, ograniczając dostęp do konta zarządzającego, a jednocześnie daje zespołom jak inżynierowie czy FinOps większą kontrolę nad budżetami aplikacji lub całej organizacji.

Ta aktualizacja upraszcza zarządzanie budżetami w środowiskach multi-account, poprawiając nadzór nad kosztami i jednocześnie przestrzegając najlepszych praktyk dotyczących bezpieczeństwa przez ograniczanie dostępu do wrażliwych kont. Link »

⚡️ Anthropic’s Claude Opus 4.1 now in Amazon Bedrock

Anthropic Claude Opus 4.1 jest teraz dostępny w Amazon Bedrock, oferując lepszą wydajność i precyzję przy skomplikowanych zadaniach programistycznych i agentowych.

  • Opus 4.1 samodzielnie planuje i wykonuje end-to-end zadania deweloperskie z ulepszonym generowaniem frontendowego kodu oraz wysoką jakością wizualnego outputu, jednocześnie dostosowując się do stylu użytkownika i utrzymując wysoką jakość kodu.
  • Świetnie radzi sobie z długoterminowym rozwiązywaniem problemów i ciągłym rozumowaniem, zwiększając możliwości AI agenta w skomplikowanych, wieloetapowych workflowach związanych z wyszukiwaniem, research’em, tworzeniem contentu i podsumowaniami.

Ta aktualizacja znacząco posuwa do przodu AI-driven development i współpracę, dostarczając bardziej kompetentnego wirtualnego współpracownika, który zwiększa dokładność i efektywność względem poprzednika, Opus 4.. Link »

⚡️ Amazon ECR now supports 100,000 images per repository

Amazon Elastic Container Registry (ECR) teraz wspiera do 100 000 obrazów na repozytorium, co znacząco zwiększa poprzedni limit 20 000.

  • Nowy, wyższy limit zmniejsza potrzebę częstego dawania requestów o podniesienie limitu, pozwalając rejestrom lepiej ogarnąć rosnące wymagania.
  • Ta zmiana jest dostępna od razu we wszystkich regionach AWS komercyjnych i GovCloud (US), z opcją requestowania jeszcze wyższych limitów, jeśli zajdzie taka potrzeba.

To ulepszenie upraszcza zarządzanie obrazami kontenerów na dużą skalę, umożliwiając developerom i DevOpsom sprawne ogarnięcie większych repozytoriów bez dodatkowego balastu administracyjnego. Link »

⚡️ Amazon Q Developer CLI announces support for remote MCP servers

Amazon Q Developer CLI teraz wspiera zdalne serwery MCP, co poprawia skalowalność i bezpieczeństwo przez centralizację zasobów oraz lepsze zarządzanie dostępem.

  • Zdalne serwery MCP jak Atlassian i GitHub, które obsługują HTTP i autentykację OAuth, można podpiąć przez określenie typu transportu, URL do logowania i konfigurację headerów agenta.
  • Po uwierzytelnieniu CLI pobiera dostępne narzędzia z serwera MCP, usprawniając dostęp do nich podczas workflow developmentu.

Ta aktualizacja zmniejsza zużycie lokalnych zasobów obliczeniowych i wzmacnia zarządzanie bezpieczeństwem, pozwalając deweloperom pracować efektywniej dzięki scentralizowanemu dostępowi do narzędzi zarówno w CLI, jak i w pluginach do IDE. Link »

⚡️ Amazon RDS Proxy announces support for end-to-end IAM authentication

Amazon RDS Proxy teraz wspiera end-to-end IAM auth dla połączeń z Amazon Aurora i RDS, dając bezpieczne i uproszczone zarządzanie credentialami na całej ścieżce połączenia z bazą.

  • Ta funkcja pozwala apkom łączyć się z bazami przez RDS Proxy używając IAM auth bez potrzeby trzymania credentiali w Secrets Manager, dostępne dla silników MySQL i PostgreSQL we wszystkich wspieranych regionach AWS.
  • RDS Proxy poprawia skalowalność i wydajność aplikacji przez poolowanie i dzielenie połączeń do bazy, co zmniejsza zużycie zasobów spowodowane wieloma lub częstymi próbami łączenia.

End-to-end IAM auth upraszcza bezpieczeństwo korzystając z mocnej autoryzacji IAM, przy okazji ułatwiając rotację credentiali, co znacząco polepsza zarządzanie połączeniami i bezpieczeństwo w nowoczesnych, serverlessowych aplikacjach. Link »

⚡️ Amazon S3 now supports conditional deletes in S3 general purpose buckets

Amazon S3 teraz wspiera conditional deletes w bucketach ogólnego przeznaczenia, dzięki czemu requesty usuwania zadziałają tylko, jeśli obiekt nie uległ zmianie, co pomaga zapobiegać przypadkowym usunięciom w środowiskach z wieloma środowiskami zapisującymi.

  • Conditional deletes używają nagłówka HTTP if-match z wartością ETag do weryfikacji integralności obiektu przed usunięciem, zapewniając, że tylko pasujące obiekty zostaną usunięte.
  • Możesz wymusić conditional deletes przez klucz warunku s3:if-match w politykach bucketów, wymagając od klientów dołączania nagłówka if-match w requestach DeleteObject i DeleteObjects API.

Ta funkcja zwiększa ochronę danych, minimalizując przypadkowe usunięcia podczas operacji zapisu o dużej współbieżności, dając deweloperom i adminom większą kontrolę nad zarządzaniem lifecycle obiektów bez dodatkowych kosztów. Link »

👨‍👩‍👧‍👦 Od Społeczności

Artykuły, tutoriale i nagrana przygotowane przez maniaków serverless.

⚡️ MCP in simple words

Ten artykuł tłumaczy, że budowa i używanie serwerów MCP to proste zadanie inżynierskie, gdzie LLMy tylko rekomendują narzędzia działające na twoim serwerze, ale ich nie wywołują bezpośrednio. Artykuł opisuje przepływ interakcji MCP, protokoły, koncepty zasobów i narzędzi, templaty promptów, metody debugowania i konfigurację klient-serwer, podkreślając, że efektywne opanowanie MCP wymaga praktycznej nauki przez samodzielne eksperymenty. Link »

⚡️ Building a Remote MCP Server with OAuth Authorization Using Amazon API Gateway and Cognito

W artykule wyjaśniono, jak zaimplementować MCP server z autoryzacją OAuth 2.1 korzystając z zarządzanych usług AWS, omijając brak wsparcia Amazon Cognito dla wymaganych endpointów metadanych i dynamic client registration dzięki możliwościom transformacji requestów/response’ów oraz mock integration w AWS API Gateway. Rozwiązanie wspiera klientów MCP, takich jak MCP Inspector, przez standardowe flow autoryzacji, udostępnianie metadanych i rejestrację klientów, wszystko to bez dodatkowego obciążenia compute, łącząc API Gateway, Cognito i funkcje Lambda. Link »

⚡️ Killing cold starts with Lambda SnapStart

AWS Lambda SnapStart przyspiesza cold starty przez snapshotowanie zainicjowanych stanów funkcji i odtwarzanie nowych środowisk wykonawczych z tych snapshotów, dramatycznie redukując opóźnienia startu, zwłaszcza przy ciężkich inicjalizacjach w Java, Python 3.12+ i .NET 8+. Wymaga publikowanych wersji i nie wspiera Provisioned Concurrency, EFS ani dużego ephemeral storage, dzięki czemu jest idealny dla funkcji ze skokowym ruchem lub ciężkimi frameworkami, ale nie dla tych, które potrzebują unikalnego stanu inicjalizacyjnego na wywołanie. SnapStart można włączyć przez Terraform, SAM i CDK, a monitoring jest dostępny przez CloudWatch i X-Ray. To opłacalna alternatywa dla Provisioned Concurrency, zmniejszająca opóźnienia startu bez utrzymywania środowisk cały czas na żywo. Link »

⚡️ Lightweight ETL with AWS Lambda, DuckDB, and PyIceberg

W tym artykule opisano, jak zbudować lekki i oszczędny workflow ETL używając AWS Lambda z DuckDB, PyArrow i PyIceberg do przetwarzania i zapisywania danych w formacie Apache Iceberg, wywoływane eventami z S3. Wykorzystuje się tu pamięć Lambdy i przetwarzanie zbliżone do SQL dla efektywnej obróbki mniejszych datasetów, stanowiąc tańszą alternatywę dla Glue czy EMR, przy jednoczesnym uwzględnieniu ograniczeń pamięci i czasu działania Lambdy. Rozwiązanie wspiera ETL w czasie rzeczywistym z możliwością rozszerzenia na bardziej skomplikowane wzorce zarządzania danymi jak Write-Audit-Publish. Link »

⚡️ Building cost-effective RAG applications with Amazon Bedrock Knowledge Bases and Amazon S3 Vectors

Amazon Bedrock Knowledge Bases teraz integruje się z Amazon S3 Vectors, kosztowo zoptymalizowanym chmurowym object storage, który umożliwia efektywne przechowywanie i zapytania dużych zestawów wektorów z oszczędnościami do 90% w porównaniu do tradycyjnych baz wektorowych. To szczególnie przydatne przy skalowaniu aplikacji Retrieval Augmented Generation (RAG), które przetwarzają ogromne ilości dokumentów lub potrzebują długoterminowego searchu archiwalnego. Integracja wspiera elastyczne konfiguracje przez konsolę lub API, oferuje semantyczne searchowanie z filtrowaniem metadanych oraz narzędzia do ingestii, synchronizacji i testów knowledge bases. Pozwala organizacjom budować skalowalne i opłacalne rozwiązania RAG bez dużych nakładów infrastrukturalnych, łącząc oszczędności z adekwatną wydajnością dla ogromnych knowledge bases. Link »

⚡️ Testing in a serverless environment

Artykuł opisuje różne typy testów niezbędne w developmentcie aplikacji serverless, podkreślając ważność testów integracyjnych do weryfikacji interakcji i uprawnień między serwisami w złożonych środowiskach. Omawia strategie takie jak wdrażanie izolowanych środowisk testowych na każde zmiany i walidację infrastruktury przy użyciu AWS CDK, a także adresuje wyzwania testowania w prywatnych sieciach z wykorzystaniem self-hosted runnerów. Łączenie tych metod testowych gwarantuje kompleksowe pokrycie i pewność działania aplikacji. Link »

⚡️ Serverless applications with Java and Aurora DSQL - Part 1 Introduction and sample application setup and configuration

Ten artykuł wprowadza, jak zbudować serverlessową aplikację w Java 21, korzystając z Amazon Aurora Distributed SQL jako bazy danych, zarządzanej przez AWS Lambda i API Gateway. Omawia manualne tworzenie i konfigurację połączenia z klastrami Aurora DSQL, w tym ustawienia środowiska i uprawnienia w AWS SAM. Przykład demonstruje operacje CRUD z użyciem JDBC w Javie, wykorzystując AWS SDK DSQL i pooling połączeń HikariCP, zabezpieczone przez API Gateway z kluczem API. Choć sekwencje nie są wspierane, rozwiązanie używa losowych ID, z możliwością dalszej personalizacji. W kolejnych częściach serii będzie analizowana wydajność Aurora DSQL przy różnych zapytaniach. Link »

⚡️ Easily Delete S3 Vectors with cls3

Amazon S3 Vectors to nowy typ bucketów stworzony do przechowywania danych wektorowych, obecnie w fazie preview. Żeby łatwo zarządzać i usuwać te Vector Buckets, open-source’owe narzędzie CLI cls3 wprowadziło dedykowane wsparcie, które pozwala szybko usuwać Vector Buckets i ich indeksy. API wciąż ewoluuje, ale cls3 oferuje elastyczne, interaktywne i zautomatyzowane sposoby na usuwanie różnych typów bucketów, pomagając użytkownikom efektywnie utrzymać i posprzątać ich storage w S3. Link »

Ta strona została opublikowana tydzień po wysłaniu mailingu, dlatego jeśli chcesz być zawsze na bieżąco, to zasubskrybuj mój newsletter.




Cześć

Nazywam się Paweł Zubkiewicz i cieszę się, że tu jesteś!
Od blisko 20 lat profesjonalnie tworzę oprogramowanie, a od 2016 roku pasjonuje się Serverless.
Tą stronę stworzyłem z myślą o Tobie i o nas wszystkich, którzy uważają, że trend serverless trwale zmieni sposób tworzenia oprogramowania.
Więcej o tej stronie...

Kategorie

Pobierz bezpłatny PDF

Poradnik 12 Rzeczy o Serverless

Wybrane artykuły