
Poniżej znajdują się linki do newsów od AWS oraz artykułów i blog postów napisanych przez społeczność, które zebrałem w wydaniu numer 204 newslettera Serverless Polska. Strona ta została opublikowana tydzień po wysłaniu mailingu, dlatego jeśli chcesz być zawsze na bieżąco, to zasubskrybuj mój newsletter.
🗞️ Newsy
Prosto od AWS.
⚡️ AWS Service Availability Updates
AWS ogłasza aktualizacje cyklu życia wybranych usług, klasyfikując je na etapy Maintenance, Sunset i End of Support, aby pomóc klientom w planowaniu zmian dostępności i migracji.
- Usługi przechodzące do Maintenance od 7 listopada 2025 nie przyjmują nowych klientów, ale obecni użytkownicy mogą dalej korzystać, jednocześnie rozważając alternatywy.
- Usługi wchodzące w fazę Sunset mają ogłoszone terminy zakończenia wsparcia, zwykle dając 12-miesięczny okres przejściowy na migrację do rekomendowanych rozwiązań.
- Usługi osiągające End of Support nie są już dostępne od 7 października 2025.
Takie podejście daje klientom jasność i wsparcie przy przejściu obciążeń, minimalizując przestoje podczas wycofywania starszych lub mniej używanych usług przez AWS. Link »
⚡️ AWS Application Load Balancer launches URL and Host Header Rewrite
AWS Application Load Balancer (ALB) teraz wspiera przepisywanie URL i Host Headerów, co pozwala na modyfikację requestów za pomocą regexów zanim trafią do targetów.
- Można przepisywać URL-e (np. z “/api/v1/users” na “/users”), standaryzować wzorce URL, dostosowywać Host Headery pod routing wewnętrzny i zarządzać prefixami ścieżek bez potrzeby dodatkowych warstw proxy.
- Ta funkcja upraszcza architekturę mikroserwisów, pozwalając na efektywny routing z jednego zewnętrznego hosta do wielu wewnętrznych serwisów, konfigurowalny przez AWS Console, CLI, SDK i API.
To ulepszenie upraszcza design aplikacji i zmniejsza złożoność infrastruktury, integrując elastyczną transformację requestów bezpośrednio w ALB i poprawiając kontrolę routingu bez dodatkowych kosztów poza standardowymi opłatami za ALB. Link »
→ Więcej informacji w powiązanym blog poście.
⚡️ AWS Management Console now supports assigning a color to an AWS account for easier identification
AWS ogłasza ogólną dostępność ustawień kolorów kont w AWS Management Console, co pozwala na łatwą wizualną identyfikację kont AWS we wszystkich regionach Public.
- Admini kont mogą przypisywać unikalne kolory do kont AWS, które pojawiają się na pasku nawigacyjnym Console dla wszystkich uprawnionych użytkowników, ułatwiając rozróżnianie kont produkcyjnych, testowych czy innych środowisk.
- Funkcja wspiera kontrolę uprawnień przez zarządzane polityki AWS, dzięki czemu tylko upoważnieni użytkownicy mogą przeglądać lub zmieniać kolory kont.
Ta aktualizacja poprawia zarządzanie wieloma kontami, zastępując poleganie na numerach kont intuicyjnymi wskazówkami kolorystycznymi, upraszczając nawigację i zmniejszając ryzyko pracy na złym koncie. Link »
⚡️ Amazon Bedrock simplifies access with automatic enablement of serverless foundation models
Amazon Bedrock teraz oferuje natychmiastowy, domyślny dostęp do wszystkich serverlessowych foundation model w wszystkich komercyjnych regionach AWS, upraszczając korzystanie bez ręcznej aktywacji.
- Użytkownicy mogą od razu używać serverlessowych foundation model przez playground w konsoli Amazon Bedrock, AWS SDK oraz zintegrowane funkcje takie jak Agents, Flows i Prompt Management.
- Modele Anthropic są dostępne domyślnie, ale wymagają jednorazowego wypełnienia formularza użycia, który można zrobić przez API lub konsolę i który pozwala na aktywację dla całej organizacji przez konto zarządzające.
Ta aktualizacja znacznie obniża tarcie onboardingowe, pozwalając na szybszą i bardziej płynną integrację foundation model, jednocześnie utrzymując kontrolę administracyjną przez IAM i SCP. Link »
⚡️ Amazon Bedrock AgentCore is now generally available
Amazon Bedrock AgentCore jest już ogólnie dostępny, oferując bezpieczną, skalowalną platformę do budowania, wdrażania i obsługi AI agentów z wykorzystaniem dowolnego frameworka lub modelu, bez potrzeby zarządzania infrastrukturą.
- AgentCore podnosi poziom bezpieczeństwa korporacyjnego i automatyzacji, wspierając VPC, AWS PrivateLink, CloudFormation i tagowanie zasobów, a także dodaje wsparcie dla protokołu Agent-to-Agent (A2A), samodzielnie zarządzane pipeline’y pamięci i rozszerzone integracje narzędziowe z autoryzacją IAM.
- Zapewnia kompleksową obserwowalność przez dashboardy Amazon CloudWatch oraz kompatybilność OTEL, obsługuje każdy open-source’owy framework i model, i jest dostępny w dziewięciu regionach AWS.
Ta wersja znacznie poprawia bezpieczne, niskolatencyjne działanie agentów dzięki wydłużonym runtime’om, elastycznym integracjom i solidnemu monitoringu, dając deweloperom pewność i moc do budowania zaawansowanych AI agentowych rozwiązań. Link »
→ Więcej informacji w powiązanym blog poście.
⚡️ Announcing Apache Airflow 3.0 support in Amazon Managed Workflows for Apache Airflow
Amazon Managed Workflows for Apache Airflow (MWAA) teraz wspiera Apache Airflow w wersji 3.0, wprowadzając ulepszone funkcje orkiestracji workflow dla większej efektywności i kontroli.
- Apache Airflow 3.0 na MWAA oferuje przeprojektowany UI, zaawansowane event-driven scheduling, które eliminuje potrzebę osobnych pipeline’ów do aktualizacji assetów, oraz nowe Task SDK, które upraszcza tworzenie DAGów przez redukcję boilerplate’u.
- Ulepszenia w bezpieczeństwie to Task Execution API zapewniające lepszą izolację i kontrolowane interakcje w runtime, scheduler-managed backfill dla lepszej obsługi danych historycznych oraz wsparcie dla Python 3.12, a także krytyczne poprawki błędów.
Ta aktualizacja znacząco podnosi użyteczność, bezpieczeństwo i możliwości zarządzania workflow w MWAA, pozwalając devom na łatwiejsze i bardziej niezawodne budowanie i działanie skomplikowanych pipeline’ów danych. Link »
→ Więcej informacji w powiązanym blog poście.
⚡️ AWS Step Functions now supports Diagnose with Amazon Q
AWS Step Functions teraz integruje AI-powered troubleshootig Amazon Q bezpośrednio w swojej konsoli, żeby pomóc użytkownikom szybko diagnozować i rozwiązywać błędy w workflow.
- Użytkownicy mogą kliknąć nowy przycisk „Diagnose with Amazon Q” w alertach o błędach, żeby dostać AI-driven wskazówki dotyczące problemów, takich jak niepowodzenia wykonania state machine czy błędy składni Amazon States Language.
- Narzędzie daje spersonalizowane kroki do naprawy bezpośrednio w konsoli, co przyspiesza rozwiązanie problemów i zwiększa efektywność operacyjną.
Ta integracja upraszcza analizę błędów i skraca czas troubleshootingu przez osadzenie inteligentnej diagnostyki w konsoli Step Functions, poprawiając produktywność developerów zarządzających rozproszonym workflow. Link »
⚡️ Application map is now generally available for Amazon CloudWatch
Amazon CloudWatch wprowadza automatyczne wykrywanie i grupowanie usług do monitorowania rozproszonych aplikacji na dużą skalę, pomagając zespołom SRE i DevOps wizualizować zależności i usprawniać rozwiązywanie problemów.
- CloudWatch teraz oferuje zawsze włączoną, gotową do użycia mapę aplikacji, która organizuje usługi i zależności w różnych kontach i regionach w logiczne grupy bez ręcznej konfiguracji, wspierając dynamiczne grupowanie według zespołów, jednostek biznesowych czy krytyczności.
- Zintegrowane funkcje APM dają wysokopoziomowe sygnały operacyjne, kontekstowe wskazówki do debugowania i spersonalizowane dashboardy, które dynamicznie się aktualizują, przyspieszając analizę przyczyn źródłowych i skracając średni czas rozwiązania problemu (MTTR).
To usprawnienie znacząco polepsza obserwowalność i efektywność operacyjną, dostosowując widok monitoringu do struktury organizacyjnej i automatyzując mapowanie zależności dla szybszej reakcji na incydenty w złożonych systemach rozproszonych. Link »
⚡️ AWS Knowledge MCP Server now generally available
AWS ogłasza dostępność ogólną AWS Knowledge Model Context Protocol (MCP) Server, dostarczając agentom AI i klientom MCP autorytatywną wiedzę AWS w formacie kompatybilnym z LLM.
- Server udostępnia kompleksowe treści AWS, takie jak dokumentacja, wpisy na blogu, ogłoszenia, najlepsze praktyki Well-Architected, a teraz także dane o dostępności regionalnej dla AWS API i CloudFormation resources.
- Pozwala klientom MCP i frameworkom agentowym opierać odpowiedzi na zaufanej wiedzy AWS, poprawiając dokładność reasoning’u, spójność wykonania i zmniejszając manualne zarządzanie kontekstem przez developerów.
Ta premiera upraszcza dostęp do aktualnej wiedzy AWS dla narzędzi AI, pozwalając użytkownikom skupić się bardziej na rozwiązywaniu biznesowych wyzwań niż na zarządzaniu konfiguracjami MCP, co zwiększa niezawodność workflow wspieranych przez AI. Sam tego używam i jestem zadowolony. Link »
⚡️ AWS API MCP Server v1.0.0 release
Serwer AWS API model context protocol (MCP) osiągnął wersję 1.0.0, umożliwiając modelom foundation interakcję z dowolnym AWS API za pomocą naturalnego języka poprzez generowanie i wykonywanie poprawnych komend CLI.
- Ta aktualizacja poprawia konfigurację, użyteczność i integrację, skraca czas startu, zabezpiecza kontrolę systemu plików, ulepsza walidację inputów oraz dodaje wsparcie dla streamingu HTTP obok stdio.
- Nowości to zbieranie logów agenta CloudWatch dla lepszej obserwowalności, human-in-the-loop do iteracyjnego podawania inputów, konfigurowalne zabezpieczenia pod kątem uprawnień akcji oraz eksperymentalne narzędzie getexecutionplando preskryptywnych workflowów.
Wersja 1.0.0 zdecydowanie upraszcza i zabezpiecza interakcje naturalnym językiem z AWS API, rozszerza opcje hostingu i daje lepszą kontrolę dla bezpieczniejszych zautomatyzowanych i wspomaganych przez ludzi workflowów. Link »
⚡️ DocumentDB 5.0 Extended Support
Amazon DocumentDB w wersji 3.6 będzie miał standardowe wsparcie do 30 marca 2026, po czym klastry, które nie zostaną zaktualizowane, zaczną generować opłaty za Extended Support, a aktualizacje bezpieczeństwa będą dostarczane tylko dla krytycznych luk.
- Klienci mogą wykonać upgrade major version bezpośrednio z 3.6 do 5.0, zyskując dostęp do ulepszonych funkcji jak I/O-Optimized instancje, wsparcie dla Graviton2 oraz Serverless instancje, co daje lepszy stosunek ceny do wydajności.
- Wsparcie Przedłużone, w tym krytyczne aktualizacje bezpieczeństwa, będzie dostępne globalnie od 31 marca 2026, także w regionach AWS GovCloud i Chinach.
Ta aktualizacja podkreśla, jak ważne jest szybkie przejście na Amazon DocumentDB 5.0, aby uniknąć dodatkowych kosztów i skorzystać z dużych usprawnień wydajności oraz nowoczesnych typów instancji. Link »
⚡️ AWS Step Functions expands data source options and improves observability for Distributed Map
AWS Step Functions rozbudowuje swoją funkcję Distributed Map o wsparcie dla nowych źródeł danych oraz ulepszone metryki observability, co pozwala lepiej zarządzać workflowami na dużą skalę.
- Distributed Map teraz bezpośrednio przetwarza dane z manifestów AWS Athena, plików Parquet, obiektów S3 przez S3ListObjectsV2 oraz tablice JSON z Amazon S3 lub inputu stanu, eliminując potrzebę customowego preprocessingu danych.
- Nowe metryki observability, takie jak Approximate Open Map Runs Count, Open Map Run Limit oraz Approximate Map Runs Backlog Size, dają głębszy wgląd w wykonania Distributed Map.
Te update’y upraszczają orkiestrację skomplikowanych zadań analitycznych i ETL, a jednocześnie oferują lepszy operational insight, zwiększając efektywność i możliwości monitoringu dla devów korzystających ze Step Functions. Link »
⚡️ AWS Step Functions now supports Service Quotas
AWS Service Quotas teraz integruje się z AWS Step Functions, pozwalając użytkownikom monitorować i zarządzać limitami Step Functions bezpośrednio z konsoli Service Quotas.
- Użytkownicy mogą zobaczyć wartości limitów Step Functions na poziomie konta, monitorować wykorzystanie limitów przez metryki w CloudWatch i zgłaszać prośby o zwiększenie limitów bezpośrednio w konsoli Service Quotas.
- Dla kwalifikujących się zgłoszeń, aktualizacje limitów odbywają się automatycznie bez manualnej interwencji, co zwiększa efektywność operacyjną i przejrzystość.
Ta integracja znacząco usprawnia zarządzanie limitami dla operacji workflow o wysokim wolumenie, pomagając klientom proaktywnie zarządzać zasobami i zapobiegać przerwom w działaniu usług w scentralizowany, uproszczony sposób. Link »
⚡️ Amazon RDS for PostgreSQL now supports delayed read replicas
Amazon RDS dla PostgreSQL teraz oferuje delayed read replicas, które pozwalają ustawić minimalny czas opóźnienia dla replik, by chronić dane przed przypadkową utratą.
- Funkcja delayed read replica pozwala ustawić bufor czasowy opóźniający replikację, co daje zabezpieczenie przed błędami ludzkimi, takimi jak niezamierzone zmiany danych czy usunięcie tabel.
- W przypadku disaster recovery replikację można wstrzymać i wznowić w wybranym miejscu w logu, dzięki czemu delayed replica może zostać wypromowana na primary DB, co przyspiesza odzyskiwanie danych w porównaniu do tradycyjnych punktów przywracania.
Ta funkcja podnosi poziom ochrony danych i przyspiesza proces disaster recovery, szczególnie przy dużych bazach, dając większą kontrolę nad czasem replikacji i failoverem. Link »
⚡️ Open Source Model Context Protocol (MCP) Server now available for Amazon Bedrock AgentCore
Amazon Bedrock AgentCore wprowadza ustandaryzowany interfejs, który pozwala deweloperom tworzyć, transformować i wdrażać gotowe do produkcji AI agenty płynnie w ich ulubionych środowiskach developerskich.
- AgentCore oferuje instalację jednym kliknięciem, integrując się z agentic IDE jak Kiro oraz asystentami kodowania AI takimi jak Claude Code, Cursor i Amazon Q Developer CLI, umożliwiając iteracyjny rozwój i deployment AI agentów w naturalnym języku.
- Open-source’owy serwer MCP jest dostępny globalnie na GitHubie, co ułatwia szybkie ustawienie i dostęp do kluczowych funkcji AgentCore.
To usprawnienie upraszcza i przyspiesza workflowy związane z rozwojem AI agentów, jednocząc narzędzia i procesy, dzięki czemu deployment w kontach developerskich staje się bardziej efektywny i dostępny dla deweloperów. Link »
⚡️ Announcing a new open source project for scenario-focused AWS CLI scripts
AWS uruchomiło projekt AWS Developer Tutorials, nową bibliotekę na GitHubie oferującą przetestowane, end-to-end skrypty shellowe z użyciem AWS CLI, które upraszczają pracę z ponad 60 usługami AWS.
- Projekt dostarcza scenariuszowe skrypty AWS CLI pokazujące best practices takie jak obsługa błędów, śledzenie zasobów i sprzątanie, co ułatwia tworzenie i zarządzanie zasobami AWS za pomocą skryptów.
- Deweloperzy mogą wykorzystać generatywne AI w połączeniu z istniejącą dokumentacją, by szybko generować i iteracyjnie poprawiać skrypty, przyspieszając workflow związany ze skryptami i ograniczając błędy.
Ta inicjatywa znacznie usprawnia skryptowanie interakcji z AWS, oferując gotowe, opatrzone komentarzami przykłady oraz AI-wspomagane generowanie skryptów, co podnosi produktywność i niezawodność deweloperów zarządzających zasobami AWS przez CLI. Link »
👨👩👧👦 Od Społeczności
Artykuły, tutoriale i nagrana przygotowane przez maniaków serverless.
⚡️ Microsoft wchłania GitHub. Koniec niezależności serwisu
GitHub traci resztki autonomii i staje się integralną częścią Microsoftu — cała infrastruktura migruje do Azure, a firma została włączona do działu CoreAI. Zespoły przechodzą ze Slacka na Teams, a decyzje zapadają już bezpośrednio w Redmond. Proces migracji potrwa do 2026 roku i ma zapewnić większą skalowalność pod AI. To symboliczny koniec niezależności GitHuba i nowy rozdział w erze narzędzi AI. Link »
⚡️ Polak jedną z najbardziej wpływowych osób w AI. Twórca ElevenLabs na liście “Time’a”
Mati Staniszewski, współzałożyciel ElevenLabs, został uznany przez „Time” za jednego ze 100 najważniejszych innowatorów w AI. ElevenLabs, założone w 2022, specjalizuje się w generatywnej AI audio, tworząc narzędzia dla branż kreatywnych, medialnych i edukacyjnych. Firma wyceniana na 3,3 mld USD, oferuje naturalne głosy w 32 językach i współpracuje z globalnymi markami jak Time, Harper Collins czy Aston Martin F1. Link »
⚡️ Introducing AWS Pricing Capabilities in Amazon Q Developer: Ask Questions, Get Instant Cost Insights
Amazon Q Developer teraz ma wbudowane funkcje wyceny AWS, co pozwala zespołom chmurowym na szybki dostęp do aktualnych danych o kosztach przez zapytania w naturalnym języku, bez przerywania pracy. To usprawnienie integruje wycenę bezpośrednio w dyskusje architektoniczne i planistyczne, pomagając firmom podejmować mądrzejsze, bardziej oszczędne decyzje techniczne na bieżąco. Wspiera podejmowanie opłacalnych wyborów projektowych, zmiany budżetowe i działania strategiczne FinOps, ulepszając ekonomikę chmury przez płynne łączenie danych o wydajności i kosztach w procesach developmentu. Link »
⚡️ Employees, AI, and AI employees
Sztuczny cofounder? Brzmi futurystycznie, ale autor tekstu pokazuje, dlaczego obecna AI to za mało, by naprawdę zastąpić ludzi w tej roli. Mimo ogromnych postępów, AI nadal nie dorównuje ludzkiej pasji, wizji i zdolności podejmowania decyzji. Przyszłość pracy to raczej AI jako turbo-narzędzie dla specjalistów, a nie ich pełny następca. Link »
⚡️ Wpadka Deloitte w Australii. “Halucynacje AI” w raporcie dla rządu za 440 tys. dol.
Deloitte zaliczyło poważną wpadkę w Australii – w rządowym raporcie za 440 tys. dolarów wykryto błędy wygenerowane przez sztuczną inteligencję, w tym nieistniejące cytaty i źródła. Firma została zmuszona do częściowego zwrotu pieniędzy i poprawienia dokumentu, co wywołało ostrą krytykę ze strony polityków. Sprawa jest tym bardziej kłopotliwa, że Deloitte doradza klientom w zakresie AI na całym świecie. Przeczytaj, jak doszło do tej sytuacji i jakie są jej konsekwencje dla branży doradczej. Link »
⚡️ Accelerate development with the Amazon Bedrock AgentCore MCP server
Nowy Bedrock AgentCore MCP Server od Amazona upraszcza rozwój agentów AI poprzez integrację runtime, gateway, zarządzania tożsamością i pamięci, co przyspiesza prototypowanie i produkcyjne workflowy. Działa z popularnymi agentic IDE takimi jak Kiro i Claude Code, pozwalając developerom szybko budować i deployować agentów, zmniejszając złożoność. MCP Server wspiera architekturę warstwową dla kompleksowej obsługi kontekstu i jest prosty w instalacji oraz konfiguracji przez GitHub i ustawienia specyficzne dla IDE. Demonstracje pokazują praktyczne zastosowania, a AWS zachęca użytkowników do eksperymentów i dzielenia się feedbackiem. Link »
⚡️ Building Production-Ready AI Agents: A Multi-Framework Journey with Amazon Bedrock AgentCore
Chcesz tworzyć naprawdę gotowe do produkcji AI agenty na AWS? Ta seria pokaże Ci, jak wykorzystać Amazon Bedrock AgentCore z pięcioma różnymi frameworkami—każdy z nich ma unikalne zalety, ale korzysta z tej samej niezawodnej infrastruktury. Dowiesz się, jak efektywnie zarządzać pamięcią, skalować deploymenty i łączyć różne podejścia bez kompromisów. Jeśli szukasz praktycznych przykładów i kodu gotowego do użycia, koniecznie przeczytaj całość! 🚀 Link »
⚡️ Gracefully handle failed AWS Lambda events from Amazon DynamoDB Streams
Ten artykuł wyjaśnia, jak integracja AWS Lambda ze strumieniami DynamoDB zyskuje dzięki wykorzystaniu Amazon S3 jako miejsca docelowego na błędne eventy, co umożliwia trwałe przechowywanie pełnych payloadów do replay i debugowania. W odróżnieniu od tradycyjnych DLQ, które przechowują tylko metadane, S3 trzyma kompletne eventy, zwiększając odporność i kontrolę operacyjną, a jednocześnie pozwala na precyzyjne polityki retry minimalizujące opóźnienia w przetwarzaniu. Dobre praktyki bezpieczeństwa podkreślają konieczność ograniczenia zapisu do bucketów S3 na podstawie właściciela konta, by zapobiec wyciekom danych. Ogólnie rzecz biorąc, to podejście zapewnia solidne rozwiązanie do zarządzania błędami przetwarzania streamów w architekturach event-driven. Link »
⚡️ We must build AI for people; not to be a person
Ten esej argumentuje, że systemy AI przekonująco symulujące świadomość — Seemingly Conscious AI — są bliskie realizacji ze względu na obecne trendy technologiczne. Choć nie są naprawdę świadome, mogą wywoływać szerokie nieporozumienia, skłaniając niektórych do przypisywania im praw i statusu moralnego, co grozi podziałami społecznymi i szkodami psychologicznymi. Autor wzywa do proaktywnego ustalania standardów i zasad projektowych, które zapobiegną tworzeniu iluzji personifikacji AI, podkreślając rolę AI jako narzędzi służących ludziom, a nie autonomicznych cyfrowych istot. Rozwiązanie tych wyzwań teraz jest kluczowe dla ochrony dobrostanu społeczeństwa w miarę jak AI staje się coraz bardziej zaawansowane i wkomponowane w codzienne życie. Link »
⚡️ Optimize message delivery to third-party services using AWS Lambda and AWS Step Functions
YOOX usprawnił swój ogromny flow aktualizacji danych do serwisów trzecich, używając AWS Lambda i SQS z mechanizmem adaptacyjnego skalowania concurrency, który wykrywa błędy HTTP 429 związane z throttlingiem. Logując eventy throttlingu i wyzwalając workflow Step Functions do dynamicznej regulacji limitów concurrency Lambdy, zoptymalizowali przepustowość, utrzymując około 95% wskaźnik sukcesu, jednocześnie zapobiegając przeciążeniu zewnętrznych serwisów. To serverlessowe rozwiązanie korzysta z natywnych kontroli concurrency AWS i metryk do wdrożenia efektywnej strategii back-off retry, osiągając stabilną, kosztowo efektywną dostawę ogromnej liczby wiadomości. Link »
Ta strona została opublikowana tydzień po wysłaniu mailingu, dlatego jeśli chcesz być zawsze na bieżąco, to zasubskrybuj mój newsletter.
 
		 
       
             
             
             
             
             
             
             
            