50 najpopularniejszych pytań i odpowiedzi na rozmowach kwalifikacyjnych na stanowisko mainframe (2026)
Przygotowujesz się do rozmowy kwalifikacyjnej na stanowisko Mainframe? Czas skupić się na tym, co najważniejsze – zrozumieniu podstawowych systemów, logiki kodowania i starszej infrastruktury, które napędzają dzisiejsze globalne przedsiębiorstwa.
Ponieważ komputery mainframe nadal stanowią podstawę działalności finansowej, detalicznej i rządowej, specjaliści z ugruntowaną wiedzą techniczną i doświadczeniem branżowym są wciąż bardzo poszukiwani. Niezależnie od tego, czy jesteś początkującym, czy doświadczonym specjalistą z 5- lub 10-letnim doświadczeniem technicznym, opanowanie kluczowych pytań i odpowiedzi pomoże Ci wykazać się analizą, umiejętnościami i pewnością siebie.
W przewodniku wykorzystano opinie ponad 85 menedżerów, 60 liderów zespołów i ponad 100 specjalistów z różnych branż. Odzwierciedla on rzeczywiste trendy rekrutacyjne i poziom wiedzy technicznej, jakiego oczekuje się od dzisiejszych rozmów kwalifikacyjnych na stanowiskach mainframe.
Najważniejsze pytania i odpowiedzi na rozmowach kwalifikacyjnych na stanowisko mainframe
1) Wyjaśnij, czym jest system mainframe i opisz jego główne cechy.
Komputer mainframe to wydajny system komputerowy zaprojektowany do przetwarzania dużych ilości transakcji i obsługi wielu użytkowników jednocześnie. podstawowe cechy obejmują wyjątkową niezawodność, skalowalność oraz scentralizowaną kontrolę danych i bezpieczeństwa. Komputery mainframe są zoptymalizowane pod kątem wysokiej przepustowości wejścia/wyjścia, a nie surowej szybkości procesora, co czyni je idealnymi do zastosowań w bankowości, ubezpieczeniach i dużych przedsiębiorstwach.
Przykład: IBM z15 może obsługiwać tysiące maszyn wirtualnych jednocześnie, zapewniając dostępność na poziomie 99.999%.
Kluczowe zalety: scentralizowane przechowywanie danych, izolacja obciążeń, doskonałe bezpieczeństwo i wsteczna kompatybilność między generacjami.
2) W jaki sposób język JCL (Job Control Language) jest wykorzystywany w operacjach na komputerach mainframe?
Język sterowania zadaniami (JCL) dostarcza instrukcji wymaganych przez system operacyjny z/OS do uruchamiania zadań wsadowych. Definiuje on, które programy mają zostać wykonane, jakie zestawy danych są zaangażowane oraz jakie zasoby systemowe są potrzebne.
Różne sposoby wykorzystania JCL:
- Przetwarzanie wsadowe – wykonuje programy COBOL lub PL/I na dużych zbiorach danych.
- Użyteczność Operanych – wykonuje kopiowanie, sortowanie, scalanie i tworzenie kopii zapasowych plików przy użyciu narzędzi takich jak IEBGENER lub DFSORT.
- Planowanie i automatyzacja – zintegrowane z narzędziami takimi jak CA-7 lub Control-M w celu zarządzania cyklem życia zadań.
JCL gwarantuje powtarzalność, możliwość audytu i możliwość odzyskiwania zadań, co stanowi podstawę stabilności przedsiębiorstwa.
3) Jak DB2 obsługuje blokowanie i kontrolę współbieżności? Podaj przykłady.
DB2 zapewnia spójność danych poprzez wielopoziomowość mechanizmy blokujące takie jak blokady na poziomie wiersza, strony i tabeli. Używa poziom izolacji (RR, RS, CS, UR) w celu zrównoważenia wydajności i integralności.
Przykład: Gdy dwie transakcje próbują uaktualnić ten sam rekord, DB2 stosuje blokadę, aby zapobiec nieprawidłowym odczytom.
Tabela – Poziomy izolacji DB2
| Poziom izolacji | OPIS | Przypadek użycia |
|---|---|---|
| Powtarzalny odczyt (RR) | Najwyższa spójność | Aktualności finansowe |
| Odczyt stabilności (RS) | Zapobiega niepowtarzalnym odczytom | Umiarkowana współbieżność |
| Stabilność kursora (CS) | Umożliwia większą współbieżność | Obciążenia wymagające dużej liczby zapytań |
| Niezatwierdzony odczyt (UR) | Najszybszy, najmniej restrykcyjny | Tylko raportowanie |
Blokady są zwalniane po zatwierdzeniu lub wycofaniu zmian, co zapewnia integralność bazy danych pomiędzy sesjami.
4) Czym są zbiory danych VSAM i jakie typy są powszechnie używane?
VSAM (Virtual Storage Access Method) to system przechowywania plików w komputerach mainframe, zaprojektowany z myślą o szybkim dostępie i efektywnej organizacji danych. Obsługuje różne typy zbiorów danych:
1. KSDS (Zestaw danych z sekwencją kluczy) – wykorzystuje pole klucza umożliwiające bezpośredni dostęp.
2. ESDS (Zestaw danych sekwencjonowanych wpisowo) – rekordy są przechowywane sekwencyjnie w miarę ich nadsyłania.
3. RRDS (Zestaw danych rekordów względnych) – dostęp według numeru rekordu.
4. LDS (zestaw danych liniowych) – używane w obiektach baz danych i programów.
Zalety: szybki losowy dostęp, łatwa rozbudowa zbioru danych i wbudowane indeksowanie.
Przykład: W aplikacji bankowej zbiory danych KSDS przechowują dane klientów, do których dostęp można uzyskać za pośrednictwem numeru konta.
5) Opisz, w jaki sposób CICS zarządza transakcjami i zapewnia odzyskanie danych w przypadku awarii.
CICS (System Kontroli Informacji o Klientach) zarządza przetwarzaniem transakcji online poprzez koordynację wykonywania programów, komunikacji i integralności danych. Egzekwuje Zasady ACID-Atomstabilność, spójność, izolacja, trwałość — gwarantujące, że transakcje zostaną zrealizowane w całości albo wcale.
Jeżeli transakcja się nie powiedzie, CICS wykonuje automatyczne wycofanie aby przywrócić stany sprzed transakcji. Dzienniki dziennika zapisz obrazy „przed” i „po” na potrzeby rekonwalescencji.
Przykład: Częściowo przetworzony przelew środków zostanie automatycznie cofnięty w celu uniknięcia braku równowagi.
Główna korzyść: CICS chroni programistów przed logiką odzyskiwania systemu niskiego poziomu, umożliwiając solidne projektowanie aplikacji.
6) Czym GDG (Generation Data Groups) różnią się od standardowych zestawów danych?
A Gdg to zbiór sekwencyjnych zestawów danych, które mają wspólną nazwę bazową i indeks wersji. Upraszcza zarządzanie zestawami danych w cyklach wsadowych.
Różnica między GDG a standardowym zbiorem danych:
| Czynnik | Gdg | Standardowy zestaw danych |
|---|---|---|
| Naming | Wersjonowany (np. PLIK.GDG(+1)) | Stały |
| Retencja | Zarządzane automatycznie | Ręczne usuwanie |
| Uzyskiwania dostępu | Sterowane przez względną generację | Bezpośrednie odniesienie do nazwy |
| Przypadek użycia | Okresowe kopie zapasowe, dzienniki | Pliki samodzielne |
GDG poprawiają łatwość utrzymania, umożliwiając łatwy dostęp do najnowszych lub poprzednich generacji danych bez konieczności ręcznego śledzenia.
7) Jakie są różne sposoby optymalizacji wydajności programów COBOL na komputerach mainframe?
Optymalizacja wydajności w języku COBOL obejmuje efektywne kodowanie, opcje kompilatora i dostrajanie na poziomie systemu.
Istnieją różne sposoby, m.in.:
- Zmniejsz liczbę operacji wejścia/wyjścia – stosuj większe rozmiary bloków i pule buforów.
- Unikaj niepotrzebnego sortowania – zamiast tego wykorzystaj dostęp indeksowany.
- Użyj COMP i COMP-3 dla pól numerycznych – oszczędza miejsce na dysku i zwiększa szybkość obliczeń.
- Ogranicz pętle PERFORM – minimalizuj zagnieżdżone iteracje.
- Skorzystaj z opcji kompilatora OPT – umożliwia optymalizację kodu.
Przykład: Zastąpienie sekwencyjnego odczytu pliku dostępem do klucza VSAM może skrócić czas wykonywania o 40%.
Taka optymalizacja świadczy o zrozumieniu zasobów systemowych i efektywnym zarządzaniu cyklem życia programu.
8) Gdzie stosuje się technologię RACF w komputerach mainframe i jakie są jej zalety i ograniczenia?
RACF (Obiekt kontroli dostępu do zasobów) Zabezpiecza zasoby komputerów mainframe poprzez uwierzytelnianie użytkowników i kontrolowanie dostępu do zestawów danych, transakcji i terminali. Działa jako część infrastruktury bezpieczeństwa systemu z/OS.
Korzyści:
- Centralne zarządzanie użytkownikami.
- Szczegółowa kontrola uprawnień.
- Obszerne audyty i rejestrowanie.
Niedogodności:
- Skomplikowana konfiguracja wymagająca specjalistycznej wiedzy.
- Błędna konfiguracja może spowolnić proces logowania.
Przykład: Banki stosują RACF w celu zapewnienia, że dostęp do danych klientów mają wyłącznie upoważnieni pracownicy, wspierając w ten sposób standardy zgodności, takie jak PCI DSS.
9) Omów zalety i wady stosowania komputerów mainframe w porównaniu z systemami rozproszonymi.
Komputery mainframe zapewniają niezrównaną niezawodność, skalowalność i integralność danych, co sprawia, że są niezbędne w środowiskach o znaczeniu krytycznym.
Zalety:
- Wysoka przepustowość i dostępność.
- Centralna kontrola ogranicza duplikację danych.
- Sprawdzone bezpieczeństwo i kompatybilność wsteczna.
Niedogodności:
- Wysokie koszty licencji i utrzymania.
- Ograniczona dostępność wykwalifikowanych specjalistów.
- Wolniejsze tempo modernizacji w porównaniu do systemów chmurowych.
Wnioski: Komputery mainframe nadal są idealnym rozwiązaniem dla sektorów intensywnie przetwarzających transakcje, ale hybrydowe architektury łączące chmurę i komputery mainframe zapewniają najlepsze cechy obu rozwiązań.
10) Czy komputery mainframe można zintegrować z platformami chmurowymi? Wyjaśnij, jak przebiega modernizacja.
Tak, nowoczesne komputery mainframe mogą bezproblemowo integrować się z ekosystemami chmurowymi za pomocą interfejsów API, oprogramowania pośredniczącego i konteneryzacji. Podejścia integracyjne obejmują:
- Ekspozycja API – z/OS Connect EE udostępnia programy COBOL jako interfejsy API REST.
- Integracja oprogramowania pośredniczącego – narzędzia takie jak MQ Series czy Kafka działają jak mosty.
- Hybrydowa orkiestracja – dane z komputera mainframe dostępne za pośrednictwem mikrousług hostowanych w AWS lub Azure.
Przykład: Bank może zachować podstawową logikę COBOL na swoim terenie, łącząc się jednocześnie z aplikacjami mobilnymi w chmurze za pośrednictwem bezpiecznych interfejsów API.
Modernizacja ta gwarantuje stabilność starszych wersji, umożliwiając jednocześnie zwinne opracowywanie rozwiązań i przeprowadzanie analiz.
11) Jakie czynniki wpływają na wydajność zapytania DB2 i jak można ją dostroić?
Wydajność zapytań DB2 zależy od kilku czynników Czynniki—projekt indeksu, struktura zapytania, wolumen danych, zarządzanie pulą buforów i statystyki systemu. Strojenie rozpoczyna się od analizy WYJAŚNIJ plan w celu identyfikacji nieefektywnych ścieżek dostępu.
Techniki strojenia klawiszy:
- Utwórz indeksy złożone w często wyszukiwanych kolumnach.
- Zastosowanie
RUNSTATSaby statystyki optymalizatora były aktualne. - Uniknąć
SELECT *; podaj tylko wymagane pola. - Okresowo należy ponownie wiązać pakiety w celu dostosowania ich do zmian danych.
Przykład: Dodanie indeksu do często filtrowanej kolumny może skrócić czas zapytania z minut do sekund.
Właściwe dostrojenie zapewnia przewidywalne czasy reakcji w przypadku aplikacji o znaczeniu krytycznym.
12) Jak radzisz sobie z kodami ABEND na komputerach mainframe? Podaj przykłady typowych kodów.
An ABEND (nieprawidłowy koniec) Oznacza awarię programu lub systemu podczas wykonywania. Zrozumienie i obsługa błędów ABEND jest kluczowa dla niezawodnego działania komputera mainframe.
Do typowych ABEND należą:
- S0C7: Wyjątek danych (nieprawidłowe dane liczbowe).
- S0C4: Wyjątek ochrony (nieprawidłowy dostęp do pamięci).
- S806: Program nie został znaleziony.
- S322: Przekroczono limit czasu procesora.
Kroki rozwiązania:
- Revzobacz logi SYSOUT i JES.
- Przeanalizuj zrzut przy użyciu IPCS lub Abend-AID.
- Zidentyfikuj wadliwe dane lub brakujący moduł.
Przykład: Podczas wykonywania zadania związanego z naliczaniem płac niezainicjowane pole numeryczne spowodowało błąd S0C7 ABEND, który można naprawić poprzez zainicjowanie zmiennych do ZERO przed obliczeniami.
Terminowe rozpatrywanie zgłoszeń zapobiega kaskadowym awariom zadań.
13) Czym jest IMS i czym różni się od DB2?
IMS (System Zarządzania Informacją) to hierarchiczny system zarządzania bazami danych i transakcjami by IBM, zaprojektowany do szybkich operacji na dużych wolumenach danych. W przeciwieństwie do modelu relacyjnego DB2, IMS wykorzystuje hierarchie nadrzędny-podrzędny.
Różnica między IMS i DB2:
| Czynnik | IMS | DB2 |
|---|---|---|
| Model danych | Hierarchiczny | Relacyjny |
| Metoda dostępu | Połączenia DL/I | SQL |
| Elastyczność | Wysoka wydajność, mniejsza elastyczność | bardziej elastyczne |
| Przypadek użycia | Bankowość, telekomunikacja, logistyka | Analityka przedsiębiorstw, finanse |
IMS pozostaje istotny ze względu na wyjątkową przepustowość transakcji.
Przykład: Systemy rozliczeń telekomunikacyjnych często wykorzystują IMS do przetwarzania danych w czasie rzeczywistym.
14) Wyjaśnij cykl życia zadania wsadowego na komputerze mainframe od wysłania do zakończenia.
Cykl życia zadania wsadowego składa się z następujących etapów:
- Uległość – Zadanie wchodzi do kolejki JES2/JES3 przez JCL.
- Konwersja – Walidacja składni i formatowanie.
- Egzekucja – Przypisane do inicjatora; wykonywane w ramach określonej klasy zadań.
- Przetwarzanie wyjściowe – System zbiera logi i generuje zestawy danych wyjściowych.
- przedmuchać – Zakończone zadanie zostało usunięte z kolejki.
Przykład: Zadanie raportu dziennego przesłane o północy jest automatycznie wykonywane, drukuje dane wyjściowe i zwalnia zasoby systemowe o godzinie 1 w nocy.
Monitorowanie każdego etapu zapewnia efektywne wykorzystanie zasobów i pomaga w rozwiązywaniu problemów związanych z opóźnieniami lub konfliktami zasobów.
15) Które narzędzia są najczęściej używane w środowiskach komputerów mainframe i jakie są ich cele?
Narzędzia dla komputerów mainframe są wstępnie zbudowane IBM lub programy dostawców do zarządzania danymi i systemami.
Typowe narzędzia i ich zastosowanie:
| Użyteczność | Cel |
|---|---|
| IEBGENER | Kopiowanie i ponowne formatowanie sekwencyjnych zestawów danych |
| SORTUJ / DFSORTUJ | Sortowanie, scalanie lub filtrowanie rekordów |
| IDCAMS | Zarządzaj zestawami danych i katalogami VSAM |
| IEBCOPY | Kopiowanie i kompresowanie partycjonowanych zestawów danych (PDS) |
| IEHLIST | Wyświetl wpisy w katalogu i szczegóły zestawu danych |
Przykład: IDCAMS jest często używany do definiowania i usuwania klastrów VSAM, podczas gdy IEBCOPY pomaga migrować moduły ładowania COBOL-a pomiędzy bibliotekami.
16) W jaki sposób CICS zapewnia integralność danych podczas równoczesnych transakcji?
CICS utrzymuje integralność poprzez izolacja zadań, punkty synchronizacji, kronikowanie.
- Każda transakcja wykonywana jest w ramach własnego zadania, w izolacji od pozostałych.
- Sync punkty zapewniają atomowe zatwierdzenia lub wycofania.
- Dzienniki zawierają zdjęcia „przed” i „po” w celu przeprowadzenia rekonstrukcji.
Przykład: Gdy dwóch użytkowników aktualizuje to samo konto klienta, CICS wymusza blokowanie rekordów, aby zapobiec niespójnościom.
Ponadto CICS integruje się z Dwufazowe zatwierdzanie DB2 protokoły, zapewniające, że wszystkie zależne systemy będą wyświetlać spójne aktualizacje nawet w przypadku awarii.
17) Czy komputery mainframe obsługują programowanie obiektowe? Jak jest ono implementowane?
Tak, komputery mainframe coraz częściej obsługują paradygmaty obiektowe poprzez języki i frameworki takie jak Enterprise COBOL, Java na z/OS i PL/I z rozszerzeniami OO.
Metody realizacji:
- Klasy i metody języka COBOL wprowadzone w języku COBOL 2002.
- Java programy są wykonywane w z/OS JVM lub USS (Unix System Services).
- Integracja poprzez procedury składowane CICS lub DB2.
Przykład: A Java serwlet wdrożony w systemie z/OS może uzyskać dostęp do logiki biznesowej COBOL poprzez wywołania interfejsu API CICS, łącząc orientację obiektową z niezawodnością transakcyjną.
To hybrydowe podejście łączy w sobie starą i nowoczesną architekturę aplikacji.
18) Jakie są różne typy zestawów danych w systemie z/OS?
Zestawy danych w systemie z/OS są kategoryzowane na podstawie struktury i metody dostępu.
Typy zbiorów danych:
| Typ zbioru danych | OPIS | Metoda dostępu |
|---|---|---|
| Sekwencyjny (PS) | Rekordy przechowywane liniowo | QSAM |
| Partycjonowany (PDS / PDSE) | Członkowie dostępni według nazwy | BSAM |
| VSAM KSDS / ESDS / RRDS | Dostęp indeksowany lub względny | VSAM |
| Gdg | Kolejne pokolenia | QSAM / VSAM |
Przykład: Program COBOL może odczytywać sekwencyjny zbiór danych wejściowych i zapisywać dane wyjściowe do VSAM KSDS w celu uzyskania dostępu indeksowanego.
Zrozumienie typów zbiorów danych pozwala na efektywne projektowanie zadań i optymalizację przechowywania danych.
19) Jak można efektywnie przeprowadzać debugowanie komputera mainframe?
Debugowanie komputerów mainframe odbywa się przy użyciu specjalistycznych narzędzi i dogłębnej analizy.
metody:
- Wstaw polecenia DISPLAY, aby prześledzić przepływ logiki.
- Użyj interaktywnych debuggerów, takich jak IBM Narzędzie debugowania i analizatora błędów.
- Revprzeglądaj pliki SYSOUT i zrzuty ekranu w celu rozwiązania problemów na poziomie systemu.
Przykład: Gdy pętla COBOL-a generuje nieprawidłowe sumy, debugowanie krok po kroku ujawnia niezainicjowaną zmienną licznika.
Skuteczne debugowanie łączy w sobie myślenie analityczne z biegłością w posługiwaniu się narzędziami, co pozwala na szybsze rozwiązywanie problemów i czystsze wydania produkcyjne.
20) Jakie główne cechy sprawiają, że z/OS jest niezawodnym systemem operacyjnym?
System operacyjny z/OS został zaprojektowany z myślą o niezrównanej niezawodności, dostępności i łatwości serwisowania (RAS).
Cechy charakterystyczne:
- Zarządzanie obciążeniem pracą (WLM): Dynamicznie przydziela zasoby do zadań priorytetowych.
- Sysplex równoległy: Clusterwiele systemów zapewniających ciągłą dostępność.
- Obsługa EBCDIC i Unicode: Zapewnia wsteczną kompatybilność.
- Zaawansowane zabezpieczenia: Integruje podsystemy RACF i szyfrowania.
Przykład: W instytucjach finansowych dostępność systemu z/OS regularnie przekracza 99.999%, umożliwiając obsługę milionów transakcji dziennie bez przerw w świadczeniu usług.
21) Wyjaśnij rolę JES2 i JES3 w przetwarzaniu zadań. Czym się różnią?
JES2 i JES3 (podsystemy wprowadzania zadań) zarządzają przepływem zadań wsadowych poprzez etapy przesyłania, planowania i realizacji w systemie z/OS. Są one niezbędne do alokacji zasobów i zarządzania obciążeniem.
Różnica między JES2 i JES3:
| Czynnik | JES2 | JES3 |
|---|---|---|
| Control: | Każdy system zarządza zadaniami niezależnie | Centralna kontrola nad wieloma systemami |
| Wydajność | Lepsze dla obciążeń pojedynczego systemu | Idealny dla kompleksów wielosystemowych |
| Zarządzanie kolejką | zdecentralizowanych | Centralna kolejka |
| Udostępnianie zasobów | Ograniczony | Obszerny |
Przykład: W dużych centrach danych JES3 umożliwia współdzielenie zarządzania obciążeniem w wielu systemach, zwiększając przepustowość i wydajność. JES2, ze względu na swoją prostszą konstrukcję, nadaje się do środowisk autonomicznych.
22) W jaki sposób komputery mainframe można zintegrować z procesem DevOps?
Nowoczesne komputery mainframe obsługują zasady DevOps dzięki automatyzacji, ciągłej integracji (CI) i ciągłemu dostarczaniu (CD).
Metody integracji obejmują:
- Kontrola źródła: Korzystanie z Gita z IBM Programista dla z/OS.
- Kompilacje automatyczne: Wykorzystaj Jenkinsa, UrbanCode lub DBB (Dependency-Based Build).
- Testowanie: Zautomatyzuj testy jednostkowe za pomocą zUnit lub HCL OneTest.
- Rozlokowanie: Zintegruj z orkiestracją kontenerów lub wdrożeniami opartymi na API.
Przykład: Zmiany kodu źródłowego COBOL wprowadzone do Gita mogą automatycznie uruchamiać kompilacje Jenkinsa, kompilować przy użyciu DBB i wdrażać w regionach testowych CICS — zapewniając elastyczność bez obniżania niezawodności.
Modernizacja ta łączy komputery mainframe z korporacyjnymi procesami CI/CD.
23) Jakie zaawansowane funkcje wprowadzono w Enterprise COBOL?
Enterprise COBOL wprowadza szereg udoskonaleń poprawiających wydajność, bezpieczeństwo i wsparcie modernizacji:
- Obsługa analizy JSON i XML do integracji API.
- Kodowanie UTF-8 i Unicode aby umożliwić globalne zastosowania.
- Opcje optymalizacji kompilatora (ARCH, OPT, TEST).
- Rozszerzenia obiektowe z klasami i metodami.
- Funkcje wewnętrzne do operacji na ciągach znaków, datach i liczbach.
Przykład: Programiści COBOL mogą teraz wywoływać interfejsy API REST bezpośrednio, korzystając z poleceń JSON PARSE, co ułatwia hybrydowe przepływy pracy aplikacji.
Funkcje te pomagają unowocześnić starsze aplikacje, zachowując jednocześnie wsteczną kompatybilność.
24) W jaki sposób system z/OS zarządza pamięcią i jakie są różne obszary pamięci?
W systemie z/OS zastosowano wirtualny model pamięci masowej, który dzieli pamięć na odrębne obszary, co umożliwia wydajne wykonywanie wielu zadań jednocześnie.
Obszary pamięci obejmują:
| Obszar | OPIS | Typowy rozmiar |
|---|---|---|
| Teren prywatny | Pamięć specyficzna dla danego zadania | Dynamiczny |
| Wspólny Obszar Usług (CSA) | Współdzielone przez wszystkie zadania | Stały |
| Obszar kolejki systemowej (SQA) | Bloki sterowania systemem | Stały |
| Rozszerzone obszary (ECSA/ESQA) | Rozszerzone adresowanie 64-bitowe | Zmienna |
Przykład: Gdy jednocześnie uruchomionych jest wiele regionów CICS, współdzielone bloki sterujące znajdują się w CSA, natomiast programy użytkownika są wykonywane w obszarach prywatnych.
Taka architektura umożliwia wykonywanie wielu zadań naraz bez ingerencji w pamięć, gwarantując stabilność przy dużym obciążeniu.
25) Jakie są różne typy harmonogramów w komputerach mainframe i jak one działają?
Harmonogramy zarządzają kolejnością wykonywania zadań, priorytetami i zależnościami.
Rodzaje harmonogramów:
- Harmonogramy wewnętrzne (JES2/JES3) – natywne mechanizmy z/OS.
- Harmonogramy zewnętrzne – CA-7, Control-M, Harmonogram obciążeń Tivoli.
- Niestandardowe skrypty automatyzacji – oparte na REXX lub CLIST.
Funkcje: definiowanie wyzwalaczy zadań, kontrolowanie zależności, monitorowanie wykonywania i obsługa ponownych prób.
Przykład: Harmonogram Control-M może automatycznie uruchomić zadanie ETL po zakończeniu ładowania bazy danych, zapewniając spójne przetwarzanie wsadowe.
Harmonogramy stanowią podstawę koordynacji obciążeń roboczych na poziomie przedsiębiorstwa.
26) Kiedy i dlaczego logika RESTART jest implementowana w zadaniach na komputerach mainframe?
Logika RESTART jest kluczowa dla efektywnego odzyskiwania długotrwałych zadań wsadowych po przerwach. Umożliwia ona wznowienie od ostatniego pomyślnie zakończonego punktu kontrolnego zamiast ponownego uruchamiania całego procesu.
W przypadku użycia:
- W wieloetapowych cyklach wsadowych.
- Podczas zadań przetwarzania plików trwających dłużej niż kilka godzin.
Dlaczego:
- Oszczędza czas i zasoby obliczeniowe.
- Zapobiega duplikowaniu i uszkodzeniu danych.
Przykład: Zadanie związane z naliczaniem płac, które obejmuje przetwarzanie milionów rekordów, może wykorzystywać procedurę ponownego uruchamiania punktu kontrolnego co 10 000 rekordów, zapewniając odporność na nieoczekiwane awarie systemu.
27) Jak odróżnić wywołanie statyczne od dynamicznego w COBOL-u? Które jest preferowane?
W COBOL-u, wywołanie statyczne łączy podprogramy w czasie kompilacji, podczas gdy dynamiczne połączenie rozwiązuje je w czasie wykonywania.
Tabela różnic:
| Parametr | Wywołanie statyczne | Dynamiczne połączenie |
|---|---|---|
| Wiążący | Czas kompilacji | Czas pracy |
| Wydajność | Szybsze wykonanie | Nieco wolniej |
| Elastyczność | Less elastyczne | Bardzo elastyczne |
| Zmiany w programie | Wymaga ponownej kompilacji | Nie jest wymagana ponowna kompilacja |
Przykład: W przypadku często używanych podprogramów, takich jak logika walidacji, preferowane są wywołania statyczne. W systemach modułowych z ewoluującą logiką biznesową, wywołania dynamiczne umożliwiają łatwe aktualizacje bez konieczności przebudowywania programu głównego.
28) Czym są rekordy SMF i dlaczego są ważne?
SMF (System Management Facility) Rekordy to ustrukturyzowane dzienniki rejestrujące całą aktywność systemową i zadaniową w systemie z/OS.
Znaczenie:
- Umożliwia monitorowanie wydajności i planowanie pojemności.
- Dostarcza dane dotyczące audytu i zgodności.
- Ułatwia rozliczanie obciążeń zwrotnych za wykorzystanie zasobów.
Przykład: Typ rekordu SMF 30 rejestruje czas rozpoczęcia i zakończenia zadania, natomiast typ 70 rejestruje wydajność procesora.
Administratorzy systemów analizują dane SMF przy użyciu RMF lub SAS w celu identyfikacji wąskich gardeł, optymalizacji obciążeń i zachowania zgodności z SLA.
29) Jakie są korzyści ze stosowania języka REXX w środowiskach mainframe?
REXX (Zrestrukturyzowany Rozszerzony Wykonawca) jest językiem skryptowym wysokiego poziomu, używanym do automatyzacji i prototypowania.
Korzyści:
- Ułatwia powtarzalne zadania administracyjne.
- Integruje się z TSO, ISPF i interfejsami API systemowymi.
- Łatwe do odczytania i utrzymania.
- Obsługuje wykonywanie interaktywne i wsadowe.
Przykład: Skrypt REXX może automatycznie tworzyć kopie zapasowe wszystkich zestawów danych konkretnego projektu każdego dnia, zastępując ręczne operacje JCL.
Jego elastyczność sprawia, że jest niezastąpiony w przypadku DevOps i automatyzacji przepływów pracy systemów.
30) W jaki sposób architektury hybrydowe łączą komputery mainframe z chmurą i systemami rozproszonymi?
Architektury hybrydowe integrują komputery mainframe z nowoczesnymi platformami chmurowymi, zapewniając skalowalność i analitykę.
Wzorce integracji:
- Integracja oparta na API: Udostępniaj logikę biznesową komputerów mainframe za pomocą interfejsów API REST.
- Replikacja danych: Użyj narzędzi takich jak IBM DataStage lub Q Replication do synchronizacji danych w czasie rzeczywistym.
- Konteneryzacja: Uruchamianie komponentów z/OS w kontenerach przy użyciu zCX.
Przykład: Firma ubezpieczeniowa może przetwarzać roszczenia na komputerach mainframe, ale przesyłać dane analityczne do AWS, aby uzyskać wnioski oparte na sztucznej inteligencji.
Takie architektury zapewniają niezawodność i jednocześnie umożliwiają wdrażanie nowoczesnych innowacji.
31) W jaki sposób RACF zarządza uwierzytelnianiem i autoryzacją użytkowników w systemie z/OS?
RACF (Obiekt kontroli dostępu do zasobów) Egzekwuje zarządzanie tożsamościami i dostępem w systemie z/OS. Weryfikuje dane uwierzytelniające użytkownika podczas logowania i ustala dostęp do zasobów za pomocą zdefiniowanych profili.
Proces uwierzytelniania:
- Identyfikator użytkownika i hasło są weryfikowane w bazie danych RACF.
- RACF sprawdza listy dostępu powiązane z zasobami, takimi jak zestawy danych lub terminale.
- Rejestry bezpieczeństwa rejestrują każdą próbę przeprowadzenia audytu.
Przykład: Jeśli użytkownik próbuje otworzyć poufny zbiór danych dotyczących płac, RACF ocenia poziom dostępu i blokuje nieautoryzowany dostęp.
Dzięki scentralizowanej kontroli zachowana jest zgodność z polityką bezpieczeństwa przedsiębiorstwa.
32) Wyjaśnij metody szyfrowania stosowane w środowiskach komputerów mainframe.
Komputery mainframe wykorzystują oba szyfrowanie sprzętowe i programowe dla ochrony danych.
Typy szyfrowania:
| Typ | OPIS | Przykładowe zastosowanie |
|---|---|---|
| Dane w spoczynku | Szyfruje dane przechowywane na dysku | Szyfrowanie zestawu danych z/OS |
| Dane w ruchu | Szyfruje dane podczas przesyłania | TLS, AT-TLS |
| Szyfrowanie sprzętowe | Obsługuje karty CPACF lub Crypto Express | Wysokowydajne zarządzanie kluczami |
Przykład: Systemy bankowe wykorzystują szyfrowanie CPACF wspomagane sprzętowo w celu zapewnienia bezpiecznego przetwarzania płatności.
Nowoczesne środowiska z/OS obsługują powszechne szyfrowanie — automatyczne szyfrowanie wszystkich zestawów danych bez konieczności modyfikowania aplikacji, co zapewnia pełną zgodność z przepisami.
33) Jakie są najczęstsze luki w zabezpieczeniach komputerów mainframe i jak można je ograniczyć?
Pomimo solidnej architektury, luki w zabezpieczeniach wynikają z: nieprawidłowa konfiguracja, przestarzałe zasady dostępu lub słabe praktyki szyfrowania.
Typowe zagrożenia:
- Nadmierne uprawnienia RACF.
- Nieaktywne identyfikatory użytkowników nie są unieważniane.
- Otwórz porty FTP lub TN3270.
Strategie łagodzenia:
- Wdrażaj zasadę najmniejszych uprawnień.
- Włącz uwierzytelnianie wieloskładnikowe (MFA).
- Regularnie audytuj dzienniki RACF i rekordy SMF.
Przykład: Kwartalne audyty RACF często ujawniają nieaktywne konta, które, jeśli nie zostaną sprawdzone, mogą prowadzić do nieautoryzowanego dostępu. Proaktywny monitoring zapewnia ciągłą ochronę.
34) Jak diagnozuje się spadek wydajności w systemie mainframe?
Diagnozowanie problemów z wydajnością wymaga skorelowania danych z wielu podsystemów.
Podejście:
- Zbierz dane dotyczące skuteczności SMF i RMF.
- Analizuj wykorzystanie procesora, szybkość operacji wejścia/wyjścia i aktywność stronicowania.
- Zidentyfikuj wąskie gardła, takie jak nadmierne blokowanie DB2 lub duże opóźnienie transakcji CICS.
- Review WLM (Workload Manager) raportuje sprawdzenie priorytetów przydziału.
Przykład: Wysoka częstotliwość stronicowania może wskazywać na niewystarczający rozmiar regionu; problem można rozwiązać poprzez dostrojenie alokacji pamięci.
Ustrukturyzowana analiza wydajności zapewnia, że obciążenia robocze skutecznie spełniają umowy dotyczące poziomu usług.
35) Jaką rolę pełni z/OSMF (z/OS Management Facility)?
z/OSMF zapewnia interfejs internetowy do zarządzania zasobami komputerów mainframe, upraszczając tradycyjnie złożone zadania administracyjne.
Kluczowe cechy:
- Automatyzacja przepływu pracy.
- Zarządzanie oprogramowaniem i konfiguracja.
- Konfiguracja i monitorowanie zabezpieczeń.
- Integracja REST API dla procesów DevOps.
Przykład: Administratorzy mogą wdrażać nowe wersje oprogramowania za pośrednictwem przepływów pracy opartych na przeglądarce, zamiast skryptów JCL.
Rozwiązanie z/OSMF ułatwia zarządzanie komputerami mainframe, umożliwiając nawet osobom niebędącym specjalistami bezpieczną obsługę podstawowych operacji administracyjnych.
36) W jaki sposób systemy mainframe dostosowują się do obciążeń związanych ze sztuczną inteligencją i analizą danych?
Nowoczesne komputery mainframe integrują Ramy sztucznej inteligencji, uczenia maszynowego i analiz bezpośrednio w systemie z/OS lub poprzez środowiska hybrydowe.
Modele integracji:
- Analityka na miejscu: Narzędzia takie jak IBM Watson Rozwiązanie Machine Learning dla systemu z/OS umożliwia lokalną analizę danych operacyjnych.
- Przenoszenie danych: Replikacja w czasie rzeczywistym na platformy analityki w chmurze.
- Integracja GPU: IBM z16 obsługuje wnioskowanie AI bezpośrednio na układzie scalonym.
Przykład: Algorytmy wykrywania oszustw działają na koprocesorach z16, analizując transakcje w ciągu milisekund bez opuszczania komputera mainframe.
Dzięki temu rozwiązaniu możliwe jest podejmowanie decyzji w czasie rzeczywistym na skalę całego przedsiębiorstwa.
37) Jakie główne czynniki należy wziąć pod uwagę przy migracji aplikacji mainframe do chmury?
Migracja wymaga oceny czynników technicznych, operacyjnych i biznesowych.
Kluczowe czynniki:
| Kategoria | OPIS |
|---|---|
| Złożoność aplikacji | Oceń zależności COBOL/PL/I |
| Objętość danych | Zaplanuj replikację danych i opóźnienia |
| Ochrona | Utrzymywanie kontroli równoważnej RACF |
| Wydajność | Przeprowadź analizę porównawczą obciążeń przed migracją |
| Koszty: | Porównanie całkowitego kosztu posiadania (TCO) między systemem z/OS a chmurą |
Przykład: Strategia migracji etapowej często zaczyna się od przeniesienia funkcji raportowania i analiz, przy jednoczesnym zachowaniu przetwarzania transakcji w systemie z/OS do momentu, aż pełna przebudowa stanie się możliwa.
38) Jakie podejście do rozwiązywania problemów należy zastosować w scenariuszu rozmowy kwalifikacyjnej na komputerze typu mainframe?
Zastosuj ustrukturyzowaną metodę łączącą rozumowanie analityczne i rozumienie systemu:
- Zidentyfikować zaangażowany podsystem (DB2, CICS, JCL).
- Zbierać dane z dzienników, zrzutów i wyników zadań.
- Izolować stan błędu.
- Testowanie hipotezy przy użyciu kontrolowanych powtórzeń.
- Uprawomocnić i udokumentować rozwiązanie.
Przykład: W przypadku wystąpienia problemu z przekroczeniem limitu czasu DB2 należy prześledzić kody SQLCA, sprawdzić tabele blokad i zmienić częstotliwość zatwierdzania.
Ankieterzy oceniają nie tylko odpowiedzi, ale także logiczny i systematyczny styl rozwiązywania problemów.
39) Jakie strategie modernizacji mogą przyjąć organizacje w przypadku starszych aplikacji COBOL?
Organizacje mogą modernizować aplikacje COBOL, stosując różne strategie:
- Refaktoryzacja: Przepisywanie logiki COBOL-a do modułowych interfejsów API.
- Zmiana platformy: Przenoszenie obciążeń do systemu Linux na platformie Z lub chmury hybrydowej.
- Integracja: Korzystanie z z/OS Connect w celu udostępniania usług REST.
- Automatyka: Wprowadzenie do procesów CI/CD i struktur testowych.
Przykład: Bank zmodernizował swój system przetwarzania pożyczek w języku COBOL, przekształcając starsze funkcje w punkty końcowe REST, co pozwoliło na bezproblemową integrację z aplikacjami mobilnymi.
Modernizacja pozwala zachować wartość biznesową, a jednocześnie zapewnia elastyczność i innowacyjność.
40) Jaka jest przyszłość technologii komputerów mainframe w środowisku przedsiębiorstw?
Komputery mainframe ewoluują w hybrydowe kotwice chmurowe—wysoce bezpieczne platformy przygotowane z myślą o sztucznej inteligencji, stanowiące serce przedsiębiorstw cyfrowych.
Przyszłe trendy:
- Powszechne szyfrowanie i bezpieczeństwo oparte na zasadzie zero-trust.
- Integracja z chmurą natywną za pośrednictwem kontenerów i interfejsów API.
- Gotowość do stosowania kryptografii kwantowo-bezpiecznej.
- Zwiększona automatyzacja dzięki AI Ops.
Przykład: IBM Wbudowane w układ akceleratory sztucznej inteligencji (AI) platformy z16 oraz możliwości hybrydowej orkiestracji umożliwiają przedsiębiorstwom uruchamianie analiz predykcyjnych bezpośrednio tam, gdzie znajdują się dane.
Komputery mainframe nadal będą niezastąpione, stanowiąc podstawę najważniejszych systemów transakcyjnych na świecie.
41) Jak sobie radzisz z zadaniem wsadowym, które jest powolne i nagle trwa dłużej niż zwykle?
Rozwiązywanie problemów z powolnym zadaniem wsadowym wymaga metodycznej analizy czynników zarówno systemowych, jak i na poziomie zadania.
Podejście:
- Sprawdź logi JES w przypadku konfliktów wejścia/wyjścia lub opóźnień procesora.
- Revzobacz statystyki DB2 do blokowania lub blokowania.
- Analizuj wzorce wejścia/wyjścia — duże rozmiary zbiorów danych, nieefektywne blokowanie.
- Porównaj dane SMF do wydajności bazowej.
Przykład: Zadanie związane z naliczaniem płac zostało opóźnione z powodu nieindeksowanej tabeli DB2, a zoptymalizowano je poprzez utworzenie indeksu złożonego i zwiększenie rozmiaru regionu.
Ten analityczny obieg pracy pokazuje świadomość sytuacyjną, która jest kluczowa w przypadku wywiadów na wysokim szczeblu.
42) Jaka jest różnica między wiązaniem w czasie kompilacji a wiązaniem w czasie wykonania w COBOL-u? Które zapewnia większą elastyczność?
Wiązanie w czasie kompilacji (statyczne) łączy podprogramy z programem głównym podczas kompilacji, co poprawia wydajność. Wiązanie w czasie wykonywania (dynamiczne) rozwiązuje podprogramy podczas wykonywania, zapewniając elastyczność.
| WYGLĄD | Wiązanie w czasie kompilacji | Wiązanie w czasie wykonywania |
|---|---|---|
| Prędkość | Szybciej | Nieco wolniej |
| Elastyczność | Niski | Wysoki |
| Konserwacja | Wymaga ponownej kompilacji | Niezależne aktualizacje |
| Przypadek użycia | Stałe podprogramy | Modułowe, zmieniające się systemy |
Przykład: W dynamicznych systemach biznesowych, w których logika często się zmienia, powiązanie środowiska wykonawczego wspomaga sprawną konserwację bez konieczności ponownego wdrażania.
43) W jaki sposób CICS można zintegrować z interfejsami API RESTful lub usługami sieciowymi?
CICS obsługuje integrację API poprzez Brama transakcyjna CICS oraz z/OS Connect Enterprise Edition (EE).
Metody integracji:
- Udostępnij programy CICS jako interfejsy API REST poprzez z/OS Connect.
- Korzystaj z zewnętrznych interfejsów API korzystając z interfejsów klienckich HTTP.
- Bezpieczne transakcje z TLS i OAuth.
Przykład: Firma detaliczna udostępnia transakcje kontroli stanu magazynowego w postaci interfejsów API REST wykorzystywanych przez portal internetowy w chmurze.
Dzięki hybrydowej integracji komputery mainframe mogą wydajnie działać w nowoczesnych ekosystemach mikrousług.
44) W jaki sposób zabezpieczysz przesył danych z komputera mainframe do chmury?
Bezpieczeństwo hybrydowego przesyłu danych wymaga szyfrowanie, uwierzytelnianie i kontrolowany dostęp.
Najlepsze praktyki:
- Zastosowanie TLS / SSL dla danych w ruchu.
- Wdrożenie Tunele IPSec dla połączeń sieci prywatnych.
- Wykorzystać Technologia gotowości szyfrowania z/OS (zERT) w celu monitorowania bezpieczeństwa.
- Aplikuj certyfikaty cyfrowe do weryfikacji punktów końcowych.
Przykład: Podczas nocnej replikacji danych z systemu z/OS do AWS, szyfrowane kanały z wzajemnym protokołem TLS zapobiegają nieautoryzowanemu przechwyceniu.
Bezpieczna konstrukcja zapewnia zgodność z normami takimi jak ISO 27001 i PCI DSS.
45) Kiedy w projekcie należy wybrać IMS zamiast DB2?
IMS pozostaje lepszy w przypadku aplikacje o dużej objętości, hierarchiczne i działające w czasie rzeczywistym gdzie wydajność i przewidywalność mają kluczowe znaczenie.
Wybierz IMS, gdy:
- Częstotliwość transakcji jest niezwykle wysoka (np. w telekomunikacji, bankowości).
- Relacje między danymi są ściśle hierarchiczne.
- Zmiany w aplikacjach zdarzają się rzadko, ale przepustowość ma kluczowe znaczenie.
Wybierz DB2, gdy:
- Relacje między danymi mają charakter relacyjny.
- Wymagana jest analiza lub doraźne zapytania.
Przykład: Rejestry połączeń klientów telekomunikacyjnych, aktualizowane w milisekundach, lepiej nadają się do systemu IMS.
Wybór pomiędzy IMS a DB2 zależy od złożoności danych i wzorca obciążenia.
46) Czy komputery mainframe mogą uczestniczyć w procesach konteneryzacji, takich jak Docker lub Kubernetes?
Tak. IBM wprowadzono Rozszerzenia kontenerów z/OS (zCX), umożliwiając kontenerom Linux Docker natywne uruchamianie się w systemie z/OS.
Zalety:
- Współlokalizacja obciążeń Linux i COBOL.
- Poprawa efektywności wykorzystania zasobów.
- Uproszczona orkiestracja DevOps przy użyciu Kubernetes.
Przykład: Przedsiębiorstwo korzysta z kontenera bramy API w systemie zCX, który współpracuje z logiką zaplecza opartą na języku COBOL.
Hybrydowe możliwości kontenerów sprawiają, że komputery mainframe stają się pełnoprawnymi uczestnikami ekosystemów chmurowych.
47) Jak zagwarantować integralność danych, gdy wiele systemów aktualizuje ten sam zestaw danych jednocześnie?
Integralność danych opiera się na mechanizmy blokowania, punkty synchronizacji i koordynacja zatwierdzania.
Techniki:
- Wdrożenie ekskluzywne zamki w DB2 lub VSAM.
- Zastosowanie protokoły zatwierdzania dwufazowego pomiędzy systemami.
- umożliwiać CICS Synczwrotnica dla granic transakcyjnych.
Przykład: Gdy systemy online i wsadowe aktualizują to samo konto, CICS zarządza izolacją aż do momentu zatwierdzenia, zapobiegając utracie aktualizacji lub częściowym transakcjom.
Mechanizmy spójności mają kluczowe znaczenie w przypadku obciążeń finansowych i ERP.
48) Opisz realną sytuację, w której modernizacja komputera mainframe zakończyła się niepowodzeniem i wyciągnij z tego wnioski.
Jeden z głównych ubezpieczycieli próbował przenieś kod COBOL bezpośrednio na platformę Java bez przeprojektowywania logiki biznesowej. Rezultatem było pogorszenie wydajności i przekroczenie kosztów.
Lessdowiedzieliśmy się:
- Przed migracją zapoznaj się z zależnościami aplikacji.
- Wdrażaj modernizację etapami, a nie konwersję typu „big bang”.
- Zachowaj moduły o znaczeniu krytycznym w systemie z/OS i zintegruj je za pomocą interfejsów API.
Wynik: Projekt udało się uratować dzięki hybrydyzacji obciążeń zamiast ich całkowitej wymiany.
Scenariusz ten podkreśla wartość zrównoważonych strategii modernizacji opartych na zrozumieniu systemu.
49) Jakie korzyści dają interfejsy API w modernizacji komputerów mainframe?
Interfejsy API pozwalają przekształcić starsze systemy w interoperacyjne usługi bez konieczności ponownego pisania kodu.
Zalety:
- Uprość integrację z platformami chmurowymi, internetowymi i mobilnymi.
- Chroń podstawową logikę, udostępniając ograniczoną liczbę punktów końcowych.
- Włącz stopniową modernizację.
- Wspieraj DevOps poprzez usługi wielokrotnego użytku.
Przykład: Usługa zatwierdzania pożyczek oparta na języku COBOL staje się dostępna w portalu internetowym za pośrednictwem protokołu REST, co zmniejsza powielanie czynności i zwiększa elastyczność.
Interfejsy API tworzą zrównoważoną ścieżkę modernizacji bez narażania stabilności.
50) Jaką rolę, według Ciebie, będzie odgrywać AI w przyszłych operacjach na komputerach mainframe?
Sztuczna inteligencja będzie kierować autonomiczne operacje komputerów mainframe (AIOps) poprzez proaktywne przewidywanie problemów i optymalizację wydajności.
Aplikacje:
- Analiza logów i wykrywanie anomalii przy użyciu modeli ML.
- Predykcyjna konserwacja podzespołów sprzętowych.
- Inteligentne równoważenie obciążenia pracą dzięki sterowanemu przez sztuczną inteligencję systemowi WLM.
Przykład: IBMPakiet AI Ops na platformie z/OS analizuje dane SMF w celu wykrycia spowolnień zadań, zanim zauważą je użytkownicy.
Połączenie sztucznej inteligencji i komputerów mainframe zapewnia ciągłą dostępność usług i samooptymalizującą się infrastrukturę.

