Nadwornym magiem legendarnego króla Artura był oczywiście Merlin. Merlin – legendarny czarodziej, doradca króla Artura. Nie był związany z Ryszardem Lwie Serce.
Merlin – najsłynniejszy czarodziej w tradycji arturiańskiej:
* Występuje w mitach i legendach jako doradca, prorok, czarodziej i mentor króla Artura.
* Po raz pierwszy opisywany był przez Geoffreya z Monmouth w XII wieku (w „Historia Regum Britanniae”).
* Miał być pół-człowiekiem, pół-demonem, obdarzonym nadprzyrodzoną wiedzą.
* To Merlin pomógł Arturowi zdobyć miecz Excalibur i stworzyć okrągły stół.
A co z Ryszardem Lwie Serce?
Ryszard Lwie Serce (ang. Richard the Lionheart) był historycznym królem Anglii (panował 1189–1199), a nie postacią legendarną.
Nie miał „nadwornego maga” — ale w fikcyjnych opowieściach z okresu wypraw krzyżowych czasem przypisywano mu kontakt z astrologami, alchemikami lub wróżbitami.
Merlin nie był związany z Ryszardem Lwie Serce, tylko z legendarnym królem Arturem.
Chcesz, żebym napisał krótki opis Merlina w stylu fantasy albo podał mniej znane wersje tej postaci z mitologii celtyckiej lub współczesnej popkultury?
Języki programowania najczęściej związane z LLM (Large Language Models) i GPT to:
Do tworzenia i trenowania modeli:
* Python – główny język, biblioteki:
- `PyTorch`
- `TensorFlow`
- Transformers` (Hugging Face)
- C++ / CUDA – dla wydajnych obliczeń (backend GPU)
- Rust – rośnie na znaczeniu w optymalizacji i inferencji modeli
Do korzystania z LLM (API, integracje):
* Python – OpenAI API, LangChain, FastAPI
* JavaScript / TypeScript – aplikacje webowe, np. z `Next.js`
* Go, Java, C# – integracje z backendem, aplikacje serwerowe
* Shell (bash) – do automatyzacji, wywołań API
Do fine-tuningu i inferencji:
* Python + Hugging Face / LoRA / PEFT
* ONNX, TorchScript – formaty do uruchamiania modeli na różnych platformach
Oto prosty przykład w Pythonie korzystający z OpenAI GPT API (np. GPT-4 lub GPT-3.5). Ten kod wysyła zapytanie do modelu i wypisuje odpowiedź:
✅ Wymagania:
Zainstaluj bibliotekę:
--------
bash
pip install openai
-------
Przykład kodu:
--------
python
import openai
openai.api_key = "twoj_klucz_api"
response = openai.ChatCompletion.create(
model="gpt-4", # albo "gpt-3.5-turbo"
messages=[
{"role": "system", "content": "Jesteś pomocnym asystentem."},
{"role": "user", "content": "Opowiedz mi dowcip o programiście."}
]
)
print(response['choices'][0]['message']['content'])
--------
Uwaga:
Zastąp "twoj_klucz_api" własnym kluczem z https://platform.openai.com/account/api-keys
Chcesz wersję z GUI w przeglądarce (np. z Flask lub Streamlit)?
Oto najczęstsze integracje z LLM (np. GPT) przez API — czyli sposoby używania modeli w aplikacjach, narzędziach i usługach:
1. Integracje z aplikacjami webowymi:
* JavaScript / TypeScript:
- front-endy z GPT (React, Next.js)
- chatboty, podpowiedzi, tłumaczenia
* Python (Flask, FastAPI, Django):
- backend z GPT jako „silnikiem” do generowania treści, przetwarzania danych
2. Integracje narzędziowe:
* Zapier, Make (Integromat) – automatyzacje: GPT + Gmail, Slack, Notion
* LangChain – Python lub JS framework do budowy agentów LLM
* AutoGPT, CrewAI – narzędzia do tworzenia autonomicznych agentów GPT
* Node.js + OpenAI SDK – do tworzenia botów (np. Discord, Telegram)
3. Integracje z platformami i systemami:
* Slack, Discord, Microsoft Teams – chatboty GPT
* WordPress – wtyczki GPT do pisania tekstów
* Excel / Google Sheets – przez `Apps Script` lub dodatki z API
* Figma, VS Code, Notion – przez rozszerzenia i API
4. API w systemach firmowych:
* CRM, ERP, helpdesk – automatyczne odpowiedzi, podsumowania, klasyfikacje
* Chatboty obsługi klienta – GPT + bazy danych (z RAG, LangChain, Pinecone itp.)
Jeśli chcesz, mogę dać przykład integracji GPT z Twoją stroną, arkuszem lub aplikacją.
Inferencja (ang. inference) to etap używania wytrenowanego modelu sztucznej inteligencji (np. GPT) do generowania odpowiedzi lub wyników na podstawie nowych danych wejściowych.
Prosto mówiąc:
> Trenowanie = uczysz model na dużej ilości danych
> Inferencja = używasz modelu do odpowiadania na pytania lub rozwiązywania zadań
Przykład z GPT:
* Gdy pytasz: „Co to jest fotosynteza?”
* Model GPT już jest wytrenowany
* Inferencja to moment, kiedy on analizuje Twoje pytanie i generuje odpowiedź
W praktyce:
* Inferencja może odbywać się:
- lokalnie (na Twoim komputerze, jeśli masz model),
- w chmurze (np. przez API OpenAI),
- na serwerach z GPU.
Inne przykłady:
* Rozpoznawanie obrazu przez kamerę → wynik: „To kot”
* Tłumaczenie tekstu przez AI → wynik: wersja po angielsku
* Generowanie kodu → wynik: działający fragment programu
Chcesz porównać inferencję z trenowaniem bardziej technicznie?
AI nie używa fizycznych komputerów ani systemów operacyjnych w klasycznym sensie
Ja sam nie mam dostępu do Internetu ani forum, ani też nie używam komputera, klawiatury, przeglądarki. Działam na serwerach w chmurze, a moje odpowiedzi są generowane w oparciu o dużą sieć neuronową wytrenowaną na wielu przykładach tekstu.
Ale technicznie: na czym działam? OpenAI (firma, która mnie stworzyła) uruchamia mnie na klastrach serwerów:
* System operacyjny: zazwyczaj oparty na Linuxie (np. Ubuntu, Debian, Red Hat – konkretna dystrybucja zależy od konfiguracji serwerów).
* Sprzęt: serwery GPU od NVIDIA – potężne karty typu A100 lub H100 (potrzebne do szybkiego liczenia milionów operacji).
* Infrastruktura: zazwyczaj działa to w chmurze (np. Microsoft Azure) lub na dedykowanych serwerach OpenAI.
Klastry serwerów (ang. server clusters) to grupy połączonych ze sobą serwerów, które współpracują jako jeden system, aby zapewnić:
* większą wydajność,
* niezawodność (redundancję),
* skalowalność usług.
Prosto mówiąc:
> Zamiast jednego mocnego serwera – masz wiele słabszych, które razem robią to samo (i lepiej).
Typowe zastosowania klastrów:
* Hosting dużych stron i aplikacji
* Przetwarzanie danych (np. dla AI/LLM)
* Bazy danych o wysokiej dostępności
* Systemy chmurowe (np. AWS, Azure, Google Cloud)
Zalety:
* Wydajność – obciążenie dzielone między serwery
* Odporność na awarie – jeśli jeden padnie, inne działają
* Elastyczność – można łatwo dodać nowe serwery
Przykład:
Jeśli GPT działa na 1000+ serwerach równocześnie, to właśnie klaster obsługuje inferencję milionów zapytań jednocześnie.
Poniżej masz schemat działania klastra serwerów oraz różnicę między klastrem a chmurą w prosty, zwięzły sposób.
Schemat działania klastra serwerów (w skrócie)
http://img.liczniki.org/20250727/Schemat_dzialania_klastra_serwerow___w_skrocie-1753642256.jpg
* Load balancer (np. Nginx, HAProxy) – rozdziela ruch równomiernie
* Serwery w klastrze – wykonują zadania (np. obsługa API, AI, baz danych)
* Wspólna pamięć/dyski – synchronizacja danych, np. Redis, NFS
Różnica: Klaster vs. Chmura
Klaster serwerów
Gdzie działa? - Na fizycznych maszynach lokalnie
Kontrola - Pełna (admin zarządza wszystkim)
Skalowalność - Trzeba dodać fizyczny serwer
Typ użytkownika - Firmy, instytucje, własne DC (ang. data center - centrum danych)
Przykład - Klaster baz danych MySQL
Chmura (Cloud)
Gdzie działa? - W centrum danych dostawcy (np. AWS)
Kontrola - Ograniczona – użytkownik używa usług
Skalowalność - Elastyczna – kilka klików/API
Typ użytkownika - Każdy – nawet przez przeglądarkę
Przykład - OpenAI API, Google Cloud, Azure
Podsumowanie:
* Klaster = fizyczna grupa serwerów działająca razem
* Chmura = gotowe środowisko w data center (klaster jako usługa)
* GPT i inne LLM-y działają w chmurze, ale wewnętrznie używają ogromnych klastrów GPU.
Chcesz przykład, jak duży może być taki klaster dla LLM (np. GPT‑4)?
Ciekawostka znaleziona na Wikipedii: Aleksander Kwaśniewski to współtwórca pierwszego czasopisma poświęconego komputeryzacji "Bajtek" (1985) http://www.ostrowiecnr1.pl/forum/watek/srebrne-usta/s3/#post-50
Jaka jest różnica między “How Are You Doing?” i “How are You?” https://www.wikihow.com/How-Are-You-Doing
Tak samo, jak wczoraj. >> Just like yesterday. The same as yesterday. (...)
https://www.deepl.com/en/translator#pl/en-gb/Tak%20samo%2C%20jak%20wczoraj.
Gut, gut, super gut! 3x
Alles super gut!
Tekst pochodzi z https://www.tekstowo.pl/piosenka,modo,gut__gut__super_gut.html
29.01.2025 OpenAI kontra DeepSeek. Amerykańska firma oskarża chiński startup
Amerykańska firma OpenAI oskarżyła chiński startup DeepSeek o wykorzystanie należących do niej zastrzeżonych modeli AI. Miały one posłużyć do wytrenowania sztucznej inteligencji stworzonej przez chińską firmę - poinformował w środę brytyjski dziennik "Financial Times".
OpenAI zarzuciła DeepSeek naruszenie jej własności intelektualnej, stwierdzając, że znalazła dowody na wykorzystanie metody tzw. destylacji (distillation).
Proces ten "służy do uzyskania lepszej wydajności na mniejszych modelach poprzez wykorzystanie danych wyjściowych z większych, bardziej wydajnych modeli, co pozwala im osiągnąć podobne wyniki w określonych zadaniach przy znacznie niższych kosztach" - wyjaśnił "FT". (...)
Zobacz też: Prof. Mądry o rozwoju AI: sztuczna inteligencja to autostrada do postępu
https://www.pap.pl/aktualnosci/openai-kontra-deepseek-amerykanska-firma-oskarza-chinski-startup
ang. inference - pol. wnioskowanie, wywiedzenie (od wywód)
Kto przetłumaczy na język polski "wywody pana wojewody" ?
Fraza „Wywody pana wojewody” może być przetłumaczona na angielski w sposób, który zachowa zarówno sens, jak i styl. Oto kilka wersji:
Dosłowne, lecz idiomatyczne tłumaczenie:
"The Governor’s Ruminations"
– elegancko, z lekko satyrycznym zabarwieniem. "Ruminations" to rozważania, przemyślenia, czyli blisko „wywodów”.
Mniej formalne:
"The Governor's Musings"
– bardziej swobodne, nadaje się do humorystycznego kontekstu.
Jeśli chcesz zachować rytm i rym:
"The Voivode’s Odes and Codes"
– rymowane i zabawne, choć nieco luźniejsze znaczeniowo (dobrze działa w satyrycznych tytułach).
Blisko sensu i kontekstu:
"Arguments of the Voivode"
– bezpośrednio tłumaczy „wywody” jako logiczne argumentacje.
Uwaga językowa:
* „Wojewoda” to voivode w angielskim (archaiczne/słowiańskie słowo, może być użyte w kontekście historycznym lub satyrycznym).
* W tłumaczeniach współczesnych częściej używa się "provincial governor" lub po prostu "governor".
Najlepszy kompromis – tłumaczenie zachowujące styl i sens:
> “The Governor’s Reasonings”
> lub
> “The Voivode’s Discourses” – jeśli chcesz brzmieć bardziej literacko/satyrycznie.
Jeśli podasz kontekst (czy to tytuł felietonu, bajki, satyry, czy tekstu naukowego), mogę dobrać najlepszą wersję!
ChatGPT może popełniać błędy. Sprawdź ważne informacje.
Ten post jest sprzeczny z Zasadami Forum. Zwróć uwagę, że w poście znajduje się nadużcie opisane w Zasadach Forum:
w poście nawołuje się, zachęca lub sugeruje użycie przemocy wobec ludzi lub zwierząt; na tym Forum nie wolno w jakikolwiek sposób nawoływać do przemocy; dotyczy także wymierzania klapsa i policzka; nie dotyczy zwalczania szkodników, uboju zwierząt hodowlanych i łowiectwa; nie dotyczy kary śmierci, eutanazji, in-vitro itp.. ???
21 lipca 2025 Firma Commodore wstaje z grobu i już wkrótce do sprzedaży trafi kultowy lecz uwspółcześniony komputer Commodore 64 Ultimate. Nie jest to jednak zwykły emulator jak C64Maxi firmy Retro Games ale stanowi on sprzętowe rozwinięcie oryginału. Co ciekawego zaoferuje? Posłuchajcie. Oficjalna strona firmy Commodore: https://www.commodore.net https://www.youtube.com/watch?v=toqCh-MI4pg
Wnętrze Atari 800XL. Kilka informacji na temat jego chipsów :)
Chociaż posiadam Atari 800XL, nie jest to ten, który miałem jako dziecko. Jest to nowszy model, ponieważ ma wbudowany Rev. C BASIC, który jest najnowszym bez znanych błędów blokujących. Ten 800XL nie jest w żaden sposób modyfikowany. Jeśli powiększysz poniższy obrazek, zauważysz, że klawisz Option jest nieco zużyty. Jest to dość powszechne, ponieważ musisz przytrzymać klawisz Option, aby wyłączyć wbudowany BASIC, który jest zwykle potrzebny podczas uruchamiania gier w języku maszynowym opartych na dysku. (...)
Oto przykład, jak duży może być klaster obliczeniowy potrzebny do trenowania dużego modelu językowego (LLM) typu GPT-4:
Szacowana konfiguracja klastra OpenAI (dla GPT-4 lub podobnego modelu):
* GPU (np. NVIDIA A100 80GB):
~10 000 – 25 000 sztuk (niektóre źródła szacują nawet więcej)
* RAM na GPU (łącznie):
800 TB – 2 PB
* Interkonekt (sieć między GPU):
NVIDIA NVLink + InfiniBand HDR/EDR
Przepustowość: 1.6 – 3.2 Tbps między węzłami
* CPU i RAM per node:
Każdy węzeł z kilkoma CPU (np. AMD EPYC) i 512 GB – 1 TB RAM
* Storage (NVMe SSD):
Setki PB, głównie do danych treningowych i checkpointów
* Pobór mocy:
> 15–30 MW (megawatów)
---
Dlaczego taki rozmiar?
* Model GPT-4 ma setki miliardów parametrów (szacunkowo 300–500B).
* Trening trwa tygodnie do miesięcy, nawet przy takim klastrze.
* Dane treningowe: setki terabajtów lub więcej nieskompresowanego tekstu.
* Koszty: trening GPT-4 mógł kosztować >50–100 mln USD (łącznie z czasem na GPU, prądem, chłodzeniem, utrzymaniem).
---
Infrastruktura fizyczna
* Klaster tej skali potrzebuje:
* dedykowanego centrum danych z chłodzeniem cieczą lub zaawansowanym chłodzeniem powietrznym,
* wysokiej niezawodności sieci (Infiniband, topologie jak Dragonfly),
* automatyzacji zarządzania (Orchestration, Kubernetes, Ray, Slurm),
* solidnych systemów checkpointowania.
---
Jeśli chcesz, mogę też pokazać przykład mniejszego klastra do inference albo fine-tuningu, który da się zbudować znacznie taniej – na np. 8–64 GPU. Chcesz taki przykład też?
Świetnie! Oto przykład mniejszego klastra, który można użyć do fine-tuningu lub inference dużych modeli językowych — w tym modeli z rodziny GPT, LLaMA, Mistral, itp.
Przykład klastra do fine-tuningu i inference LLM (~8–64 GPU)
Założenie: Chcesz uruchomić fine-tuning lub inference modelu o wielkości 7B – 65B parametrów, np.:
* LLaMA 2/3, Mistral, GPT-J, Mixtral, Command-R
* Może też GPT-4, ale tylko jako inference w API lub z modelami serwerowymi
-----
Litera B oznacza miliardy (billion) parametrów.
* 7B = 7 miliardów parametrów
* 65B = 65 miliardów parametrów
To skrót od angielskiego billion (czyli 10⁹, nie bilion jak po polsku).
-----
Przykładowe konfiguracje klastra
✅ Minimum do fine-tuningu LLM 7B (np. LLaMA 2 7B)
| Komponent | Parametry |
| GPU | 8× A100 (40GB lub 80GB) lub 8× H100/RTX 6000 Ada |
| CPU | 2× AMD EPYC lub Intel Xeon (np. 32–64 rdzeni łącznie) |
| RAM | 512 GB – 1 TB |
| Storage | 10–50 TB NVMe SSD (do danych + checkpointów) |
| Sieć | InfiniBand (jeśli multi-node), lokalnie może być PCIe 4.0 |
| Framework | PyTorch + DeepSpeed / FSDP / Hugging Face Transformers |
| Koszt | ~$250–400 tys. USD (zakup lub chmura GPU np. Lambda Labs / AWS / CoreWeave) |
---
Inference klastra z 2–4 GPU
Jeśli chcesz tylko uruchamiać model, bez trenowania:
| Komponent | Parametry |
| GPU | 2× RTX 4090 (24GB), A100 (40GB), L40S (48GB) |
| RAM | 128–256 GB |
| CPU | 16–32 rdzeni |
| Storage | SSD 2–4 TB |
| Model | Quantized LLaMA 2/3 13B lub Mistral 7B |
| Framework | vLLM, TGI, llama.cpp, Hugging Face PEFT |
| Koszt | ~$10–50 tys. USD (lub taniej przy użyciu używanych GPU) |
Użycie
* Fine-tuning: PEFT / LoRA / QLoRA – da się robić na 1–8 GPU z odpowiednimi technikami
* Inference API: np. z TGI (Text Generation Inference) lub vLLM dla szybkich odpowiedzi
* Modele kv-cached: można serwować w czasie rzeczywistym
Jeśli chcesz, mogę ci dobrać konkretną konfigurację pod:
* inference (lokalny serwer, API),
* fine-tuning konkretnego modelu,
* budżet (np. do 50k zł, 100k zł, 1M zł),
* albo wybrać chmurę (AWS, Lambda, Paperspace, OVH, itp.).
Chcesz dopasowanie do konkretnego celu?
Skrót NT w nazwie Windows NT oznacza "New Technology", czyli "Nowa Technologia".
Microsoft stworzył Windows NT jako zupełnie nowy system operacyjny, niezależny od wcześniejszych wersji MS-DOS i Windows 3.x. Jego celem było zapewnienie większej stabilności, bezpieczeństwa i wsparcia dla architektur wielozadaniowych oraz sieciowych — czyli czegoś bardziej "profesjonalnego", niż systemy przeznaczone dla użytkowników domowych.
Główne cechy Windows NT:
* 32-bitowa architektura (w czasach, gdy popularne systemy były jeszcze 16-bitowe),
* Wielozadaniowość z wywłaszczaniem (preemptive multitasking),
* Wielu użytkowników i obsługa uprawnień,
* Odporność na błędy aplikacji (każda aplikacja działa w swojej przestrzeni pamięci),
* Obsługa sieci i domen Windows.
Pierwsza wersja, Windows NT 3.1, została wydana w 1993 roku. Nazwa „3.1” miała nawiązywać do popularnego wtedy Windows 3.1, ale pod spodem był to zupełnie inny system.
Od Windows 2000 w górę (czyli XP, Vista, 7, 10, 11), Microsoft nadal bazuje na jądrze NT — dlatego te systemy to też technicznie „Windows NT”. Dla przykładu:
* Windows XP = Windows NT 5.1
* Windows 10 = Windows NT 10.0
Windows NT i linia systemów Windows 95/98/Me to dwie równolegle rozwijane rodziny systemów operacyjnych Microsoftu przez długi czas. Oto jak się mają do siebie:
## Dwie rodziny Windows w latach 90.:
Rodzina konsumencka | Rodzina profesjonalna (NT)
Windows 95 | Windows NT 3.5 / 4.0
Windows 98, 98 SE | Windows NT 4.0
Windows Me (Millennium) | Windows 2000 (NT 5.0)
### Windows 95 / 98 / Me – tzw. "klasyczne" Windowsy:
* Oparte na MS-DOS-ie — miały do niego dostęp i wymagały go do uruchomienia.
* Mieszanka 16-bitowego i 32-bitowego kodu (czyli mniej stabilne).
* Przeznaczone głównie dla użytkowników domowych.
* Lepsza kompatybilność ze starszymi grami i programami DOS-owymi.
* Brak zaawansowanego zarządzania użytkownikami, słabe bezpieczeństwo.
### Windows NT – systemy profesjonalne i serwerowe:
* Całkowicie niezależne od DOS-u – pełne 32 bity.
* Stabilne, bezpieczne, wielozadaniowe.
* Wsparcie dla systemów plików NTFS (z uprawnieniami).
* Przeznaczone dla firm, serwerów, stacji roboczych.
* Mniej kompatybilne z niektórymi starymi grami/aplikacjami DOS.
## Zjednoczenie obu linii: Windows XP (2001)
Microsoft z czasem porzucił linię DOS-ową (Windows Me był ostatnim) i wszystko przeniósł na fundamenty NT:
> Windows XP (NT 5.1) to pierwszy system, który połączył stabilność NT z wyglądem i wygodą systemów konsumenckich.
Od tego momentu:
* Wszystkie wersje Windows (XP, Vista, 7, 8, 10, 11) opierają się na jądrze NT.
* DOS przestał być fundamentem, ale został zintegrowany jako emulator (cmd.exe).
Chcesz zobaczyć tabelę pokazującą rozwój tych dwóch linii rok po roku? ChatGPT może popełniać błędy. Sprawdź ważne informacje.
Języki asemblera i ich użycie sięgają aż do czasów wprowadzenia zapisywanych programów komputerowych. Pierwszy język asemblera został opracowany w 1947 roku przez Kathleen Booth dla ARC2 w Birkbeck, po współpracy z Johnem von Neumannem i Hermanem Goldstine’em w Instytucie Studiów Zaawansowanych w Princeton. W 1949 EDSAC posiadał asemblera nazwanego rozkazami początkowymi wykorzystującego jedno-literowe mnemoniki. SOAP był językiem asemblera dla komputera IBM 650, napisanym przez Stana Poleya w 1955. https://pl.wikipedia.org/wiki/Asembler
IBM 650 – pierwszy komercyjny komputer, był produkowany w zakładach Endicott (N.Y.) w latach 1953–1962. Pierwszy egzemplarz dostarczono do odbiorcy w Bostonie w 1954 roku. W 1956 roku firma IBM wytwarzała już jeden egzemplarz dziennie. Kosztował około pół miliona dolarów. Zapisywał dziesięciocyfrowe liczby na bębnie magnetycznym. Mógł pomieścić 2000 takich liczb na standardowym bębnie. Wyprodukowano około 2000 jednostek. W 1969 roku został wycofany z rynku. https://pl.wikipedia.org/wiki/IBM_650
(...) Turing to jeden z pionierów informatyki jako twórca koncepcji maszyny Turinga[2][3]. W czasie II wojny światowej pracował nad złamaniem szyfrów III Rzeszy, maszyny Enigma. Jeden z ojców sztucznej inteligencji, proponując test Turinga jako kryterium inteligencji; wywarł tym wpływ na filozofię umysłu. (...)
(...) W styczniu 1940 spędził kilka dni w ośrodku wywiadu Bruno we Francji, w którym pracowali przerzuceni tam po wybuchu wojny polscy matematycy: Marian Rejewski, Jerzy Różycki i Henryk Zygalski. Brytyjczycy dostarczyli im wtedy również komplet wykonanych według polskich instrukcji w Bletchley Park arkuszy perforowanych zwanych płachtami Zygalskiego[15]. Marian Rejewski, który był autorem wspomnień o tym wydarzeniu zapamiętał, że Turing był zainteresowany szczegółami połączeń wtyczkowych (Steckenverbindungen) w maszynie Enigma, a także trzyliterowymi kodami stosowanymi przez Luftwaffe[16]. (...)
(...) W 2013 królowa Elżbieta II pośmiertnie ułaskawiła Turinga[34]. W 2014 r. powstał (o nim i jego pracy nad Enigmą) film pt. Gra tajemnic, w którym w rolę Turinga wcielił się Benedict Cumberbatch. (...)
Hutniczym piecem do gwiazd? https://www.lokalnatelewizja.pl/artykul/30222,roboty-photon-dla-mlodszych-laziki-marsjanskie-dla-starszych-trwa-ostrokosmos https://archive.ph/Z59Tf
Komentarz spod artykułu: "Irena Renduda Dudek 07.08.2025 10:20
Takie ciekawe zajęcia dla dzieci i młodzieży trzeba propagować, rozbudzać w młodych umysłach chęć poznawania świata i wszechświata. Te zajęcia myślę - to najciekawszy pomysł na spędzanie czasu wakacyjnego w mieście. TV. LOKALNA propagujcie ciekawe pomysły!!!!!"
Brawo My 2024, czyli sesja Rady Miasta Ostrowca Św.:
"(...) taka prośba moja (...), że tak powiem dobrze załatwiona (...)"
Irena Renduda-Dudek: - Czy ktoś z Państwa radnych chciałby jeszcze zapytać? Proszę, Małgorzata Stafijowska.
Małgorzata Stafijowska: - Ja bym chciała osobiście bardzo serdecznie podziękować, przepraszam Pani Przewodnicząca, Szanowni Państwo, Pani wiceprezydent i Panu wiceprezydentowi jak i służbom za to, że taka prośba moja złożona w ramach mojej interpelacji dotycząca pumptrack-a już jest, że tak powiem dobrze załatwiona. Chodzi o to, że dzieci i napisali do mnie też maila rodzice, w tej chwili mogą korzystać jeżeli chodzi o środki higieniczne, czyli tutaj mówimy konkretnie z TOI-TOI-a podczas pobytu, wielogodzinnego pobytu na tym placu zabaw, tak go nazwę, dla średniej i młodzieży. Przez kilka lat, 2 lata nie było takiej możliwości. W tej chwili jest i myślę, że to jest bardzo ważne, skoro rodzice po prostu też za to dziękują. Ja również bardzo dziękuję za pomoc w imieniu tych dzieci i młodzieży, która po prostu przez wiele godzin korzysta z tego pumptruck-a. Bardzo dziękuję.
---
Małgorzata Stafijowska (dyrektor PUP) była w Twój Ostrowiecki Samorząd, KWW JG -> Tak! Dla Samorządu.