Ostrowiec Świętokrzyski - Widok na fragment miasta

Ostrowiec Świętokrzyski www.ostrowiecnr1.pl

Szukaj
Właściciel portalu


- Reklama -

Logowanie

- Reklama -
- Reklama -
- Reklama -
Zaloguj się, aby zbaczyć, kto jest teraz on-line.
Aktualna sonda
Czy masz zaufanie do ostrowieckiego szpitala?
Aby skorzystać
z mailingu, wpisz...
Korzystając z Portalu zgadzasz się na postanowienia Regulaminu.

witam

Ilość postów: 55 | Odsłon: 15018 | Najnowszy post | Post rozpoczynający
Aktualny widok mógłby udostępnić posty, które oczekują na weryfikację (m.in. sprawdzenie, czy są zgodne z Zasadami Forum). Jednak w tym wątku brak jest takich postów. Przywróć zwykły widok wątku „witam”.
        • Post nadrzędny dla poniższego tego posta o numerze 31

          Odp.: witam

          Nadwornym magiem legendarnego króla Artura był oczywiście Merlin. Merlin – legendarny czarodziej, doradca króla Artura. Nie był związany z Ryszardem Lwie Serce.

          Merlin – najsłynniejszy czarodziej w tradycji arturiańskiej:

          * Występuje w mitach i legendach jako doradca, prorok, czarodziej i mentor króla Artura.

          * Po raz pierwszy opisywany był przez Geoffreya z Monmouth w XII wieku (w „Historia Regum Britanniae”).

          * Miał być pół-człowiekiem, pół-demonem, obdarzonym nadprzyrodzoną wiedzą.

          * To Merlin pomógł Arturowi zdobyć miecz Excalibur i stworzyć okrągły stół.

          A co z Ryszardem Lwie Serce?

          Ryszard Lwie Serce (ang. Richard the Lionheart) był historycznym królem Anglii (panował 1189–1199), a nie postacią legendarną.

          Nie miał „nadwornego maga” — ale w fikcyjnych opowieściach z okresu wypraw krzyżowych czasem przypisywano mu kontakt z astrologami, alchemikami lub wróżbitami.

          Merlin nie był związany z Ryszardem Lwie Serce, tylko z legendarnym królem Arturem.

          Chcesz, żebym napisał krótki opis Merlina w stylu fantasy albo podał mniej znane wersje tej postaci z mitologii celtyckiej lub współczesnej popkultury?

          abc99
          Zgłoś
          Odpowiedz
      • Post nadrzędny dla poniższego tego posta o numerze 32

        Odp.: witam

        Języki programowania najczęściej związane z LLM (Large Language Models) i GPT to:

        Do tworzenia i trenowania modeli:

        * Python – główny język, biblioteki:

        - `PyTorch`

        - `TensorFlow`

        - Transformers` (Hugging Face)

        - C++ / CUDA – dla wydajnych obliczeń (backend GPU)

        - Rust – rośnie na znaczeniu w optymalizacji i inferencji modeli

        Do korzystania z LLM (API, integracje):

        * Python – OpenAI API, LangChain, FastAPI

        * JavaScript / TypeScript – aplikacje webowe, np. z `Next.js`

        * Go, Java, C# – integracje z backendem, aplikacje serwerowe

        * Shell (bash) – do automatyzacji, wywołań API

        Do fine-tuningu i inferencji:

        * Python + Hugging Face / LoRA / PEFT

        * ONNX, TorchScript – formaty do uruchamiania modeli na różnych platformach

        Oto prosty przykład w Pythonie korzystający z OpenAI GPT API (np. GPT-4 lub GPT-3.5). Ten kod wysyła zapytanie do modelu i wypisuje odpowiedź:

        ✅ Wymagania:

        Zainstaluj bibliotekę:

        --------

        bash

        pip install openai

        -------

        Przykład kodu:

        --------

        python

        import openai

        openai.api_key = "twoj_klucz_api"

        response = openai.ChatCompletion.create(

        model="gpt-4", # albo "gpt-3.5-turbo"

        messages=[

        {"role": "system", "content": "Jesteś pomocnym asystentem."},

        {"role": "user", "content": "Opowiedz mi dowcip o programiście."}

        ]

        )

        print(response['choices'][0]['message']['content'])

        --------

        Uwaga:

        Zastąp "twoj_klucz_api" własnym kluczem z https://platform.openai.com/account/api-keys

        Chcesz wersję z GUI w przeglądarce (np. z Flask lub Streamlit)?

        abc99
        Zgłoś
        Odpowiedz
        • Odp.: witam

          Oto najczęstsze integracje z LLM (np. GPT) przez API — czyli sposoby używania modeli w aplikacjach, narzędziach i usługach:

          1. Integracje z aplikacjami webowymi:

          * JavaScript / TypeScript:

          - front-endy z GPT (React, Next.js)

          - chatboty, podpowiedzi, tłumaczenia

          * Python (Flask, FastAPI, Django):

          - backend z GPT jako „silnikiem” do generowania treści, przetwarzania danych

          2. Integracje narzędziowe:

          * Zapier, Make (Integromat) – automatyzacje: GPT + Gmail, Slack, Notion

          * LangChain – Python lub JS framework do budowy agentów LLM

          * AutoGPT, CrewAI – narzędzia do tworzenia autonomicznych agentów GPT

          * Node.js + OpenAI SDK – do tworzenia botów (np. Discord, Telegram)

          3. Integracje z platformami i systemami:

          * Slack, Discord, Microsoft Teams – chatboty GPT

          * WordPress – wtyczki GPT do pisania tekstów

          * Excel / Google Sheets – przez `Apps Script` lub dodatki z API

          * Figma, VS Code, Notion – przez rozszerzenia i API

          4. API w systemach firmowych:

          * CRM, ERP, helpdesk – automatyczne odpowiedzi, podsumowania, klasyfikacje

          * Chatboty obsługi klienta – GPT + bazy danych (z RAG, LangChain, Pinecone itp.)

          Jeśli chcesz, mogę dać przykład integracji GPT z Twoją stroną, arkuszem lub aplikacją.

          Inferencja (ang. inference) to etap używania wytrenowanego modelu sztucznej inteligencji (np. GPT) do generowania odpowiedzi lub wyników na podstawie nowych danych wejściowych.

          Prosto mówiąc:

          > Trenowanie = uczysz model na dużej ilości danych

          > Inferencja = używasz modelu do odpowiadania na pytania lub rozwiązywania zadań

          Przykład z GPT:

          * Gdy pytasz: „Co to jest fotosynteza?”

          * Model GPT już jest wytrenowany

          * Inferencja to moment, kiedy on analizuje Twoje pytanie i generuje odpowiedź

          W praktyce:

          * Inferencja może odbywać się:

          - lokalnie (na Twoim komputerze, jeśli masz model),

          - w chmurze (np. przez API OpenAI),

          - na serwerach z GPU.

          Inne przykłady:

          * Rozpoznawanie obrazu przez kamerę → wynik: „To kot”

          * Tłumaczenie tekstu przez AI → wynik: wersja po angielsku

          * Generowanie kodu → wynik: działający fragment programu

          Chcesz porównać inferencję z trenowaniem bardziej technicznie?

          abc99
          Zgłoś
          Odpowiedz
      • Post nadrzędny dla poniższego tego posta o numerze 34

        Odp.: witam

        AI nie używa fizycznych komputerów ani systemów operacyjnych w klasycznym sensie

        Ja sam nie mam dostępu do Internetu ani forum, ani też nie używam komputera, klawiatury, przeglądarki. Działam na serwerach w chmurze, a moje odpowiedzi są generowane w oparciu o dużą sieć neuronową wytrenowaną na wielu przykładach tekstu.

        Ale technicznie: na czym działam? OpenAI (firma, która mnie stworzyła) uruchamia mnie na klastrach serwerów:

        * System operacyjny: zazwyczaj oparty na Linuxie (np. Ubuntu, Debian, Red Hat – konkretna dystrybucja zależy od konfiguracji serwerów).

        * Sprzęt: serwery GPU od NVIDIA – potężne karty typu A100 lub H100 (potrzebne do szybkiego liczenia milionów operacji).

        * Infrastruktura: zazwyczaj działa to w chmurze (np. Microsoft Azure) lub na dedykowanych serwerach OpenAI.

        Klastry serwerów (ang. server clusters) to grupy połączonych ze sobą serwerów, które współpracują jako jeden system, aby zapewnić:

        * większą wydajność,

        * niezawodność (redundancję),

        * skalowalność usług.

        Prosto mówiąc:

        > Zamiast jednego mocnego serwera – masz wiele słabszych, które razem robią to samo (i lepiej).

        Typowe zastosowania klastrów:

        * Hosting dużych stron i aplikacji

        * Przetwarzanie danych (np. dla AI/LLM)

        * Bazy danych o wysokiej dostępności

        * Systemy chmurowe (np. AWS, Azure, Google Cloud)

        Zalety:

        * Wydajność – obciążenie dzielone między serwery

        * Odporność na awarie – jeśli jeden padnie, inne działają

        * Elastyczność – można łatwo dodać nowe serwery

        Przykład:

        Jeśli GPT działa na 1000+ serwerach równocześnie, to właśnie klaster obsługuje inferencję milionów zapytań jednocześnie.

        Poniżej masz schemat działania klastra serwerów oraz różnicę między klastrem a chmurą w prosty, zwięzły sposób.

        Schemat działania klastra serwerów (w skrócie)

        http://img.liczniki.org/20250727/Schemat_dzialania_klastra_serwerow___w_skrocie-1753642256.jpg

        * Load balancer (np. Nginx, HAProxy) – rozdziela ruch równomiernie

        * Serwery w klastrze – wykonują zadania (np. obsługa API, AI, baz danych)

        * Wspólna pamięć/dyski – synchronizacja danych, np. Redis, NFS

        Różnica: Klaster vs. Chmura

        Klaster serwerów

        Gdzie działa? - Na fizycznych maszynach lokalnie

        Kontrola - Pełna (admin zarządza wszystkim)

        Skalowalność - Trzeba dodać fizyczny serwer

        Typ użytkownika - Firmy, instytucje, własne DC (ang. data center - centrum danych)

        Przykład - Klaster baz danych MySQL

        Chmura (Cloud)

        Gdzie działa? - W centrum danych dostawcy (np. AWS)

        Kontrola - Ograniczona – użytkownik używa usług

        Skalowalność - Elastyczna – kilka klików/API

        Typ użytkownika - Każdy – nawet przez przeglądarkę

        Przykład - OpenAI API, Google Cloud, Azure

        Podsumowanie:

        * Klaster = fizyczna grupa serwerów działająca razem

        * Chmura = gotowe środowisko w data center (klaster jako usługa)

        * GPT i inne LLM-y działają w chmurze, ale wewnętrznie używają ogromnych klastrów GPU.

        Chcesz przykład, jak duży może być taki klaster dla LLM (np. GPT‑4)?

        Ciekawostka znaleziona na Wikipedii: Aleksander Kwaśniewski to współtwórca pierwszego czasopisma poświęconego komputeryzacji "Bajtek" (1985) http://www.ostrowiecnr1.pl/forum/watek/srebrne-usta/s3/#post-50

        abc99
        Zgłoś
        Odpowiedz
    • Post nadrzędny dla poniższego tego posta o numerze 49

      Odp.: witam

      Jaka jest różnica między “How Are You Doing?” i “How are You?” https://www.wikihow.com/How-Are-You-Doing

      Tak samo, jak wczoraj. >> Just like yesterday. The same as yesterday. (...)

      https://www.deepl.com/en/translator#pl/en-gb/Tak%20samo%2C%20jak%20wczoraj.

      Gut, gut, super gut! 3x

      Alles super gut!

      Tekst pochodzi z https://www.tekstowo.pl/piosenka,modo,gut__gut__super_gut.html

      Gość
      Zgłoś
      Odpowiedz
    • Post nadrzędny dla poniższego tego posta o numerze 50

      Odp.: witam

      29.01.2025 OpenAI kontra DeepSeek. Amerykańska firma oskarża chiński startup

      Amerykańska firma OpenAI oskarżyła chiński startup DeepSeek o wykorzystanie należących do niej zastrzeżonych modeli AI. Miały one posłużyć do wytrenowania sztucznej inteligencji stworzonej przez chińską firmę - poinformował w środę brytyjski dziennik "Financial Times".

      OpenAI zarzuciła DeepSeek naruszenie jej własności intelektualnej, stwierdzając, że znalazła dowody na wykorzystanie metody tzw. destylacji (distillation).

      Proces ten "służy do uzyskania lepszej wydajności na mniejszych modelach poprzez wykorzystanie danych wyjściowych z większych, bardziej wydajnych modeli, co pozwala im osiągnąć podobne wyniki w określonych zadaniach przy znacznie niższych kosztach" - wyjaśnił "FT". (...)

      Zobacz też: Prof. Mądry o rozwoju AI: sztuczna inteligencja to autostrada do postępu

      https://www.pap.pl/aktualnosci/openai-kontra-deepseek-amerykanska-firma-oskarza-chinski-startup

      ang. inference - pol. wnioskowanie, wywiedzenie (od wywód)

      Kto przetłumaczy na język polski "wywody pana wojewody" ?

      Fraza „Wywody pana wojewody” może być przetłumaczona na angielski w sposób, który zachowa zarówno sens, jak i styl. Oto kilka wersji:

      Dosłowne, lecz idiomatyczne tłumaczenie:

      "The Governor’s Ruminations"

      – elegancko, z lekko satyrycznym zabarwieniem. "Ruminations" to rozważania, przemyślenia, czyli blisko „wywodów”.

      Mniej formalne:

      "The Governor's Musings"

      – bardziej swobodne, nadaje się do humorystycznego kontekstu.

      Jeśli chcesz zachować rytm i rym:

      "The Voivode’s Odes and Codes"

      – rymowane i zabawne, choć nieco luźniejsze znaczeniowo (dobrze działa w satyrycznych tytułach).

      Blisko sensu i kontekstu:

      "Arguments of the Voivode"

      – bezpośrednio tłumaczy „wywody” jako logiczne argumentacje.

      Uwaga językowa:

      * „Wojewoda” to voivode w angielskim (archaiczne/słowiańskie słowo, może być użyte w kontekście historycznym lub satyrycznym).

      * W tłumaczeniach współczesnych częściej używa się "provincial governor" lub po prostu "governor".

      Najlepszy kompromis – tłumaczenie zachowujące styl i sens:

      > “The Governor’s Reasonings”

      > lub

      > “The Voivode’s Discourses” – jeśli chcesz brzmieć bardziej literacko/satyrycznie.

      Jeśli podasz kontekst (czy to tytuł felietonu, bajki, satyry, czy tekstu naukowego), mogę dobrać najlepszą wersję!

      ChatGPT może popełniać błędy. Sprawdź ważne informacje.

      Ten post jest sprzeczny z Zasadami Forum. Zwróć uwagę, że w poście znajduje się nadużcie opisane w Zasadach Forum:

      w poście nawołuje się, zachęca lub sugeruje użycie przemocy wobec ludzi lub zwierząt; na tym Forum nie wolno w jakikolwiek sposób nawoływać do przemocy; dotyczy także wymierzania klapsa i policzka; nie dotyczy zwalczania szkodników, uboju zwierząt hodowlanych i łowiectwa; nie dotyczy kary śmierci, eutanazji, in-vitro itp.. ???

      xyz1
      Zgłoś
      Odpowiedz
      • Odp.: witam

        Nie da się tutaj postów edytować. Miało być: Kto przetłumaczy na język angielski "wywody pana wojewody" ?

        xyz1
        Zgłoś
        Odpowiedz
    • Post nadrzędny dla poniższego tego posta o numerze 52

      Odp.: witam

      21 lipca 2025 Firma Commodore wstaje z grobu i już wkrótce do sprzedaży trafi kultowy lecz uwspółcześniony komputer Commodore 64 Ultimate. Nie jest to jednak zwykły emulator jak C64Maxi firmy Retro Games ale stanowi on sprzętowe rozwinięcie oryginału. Co ciekawego zaoferuje? Posłuchajcie. Oficjalna strona firmy Commodore: https://www.commodore.net https://www.youtube.com/watch?v=toqCh-MI4pg

      xyz1
      Zgłoś
      Odpowiedz
    • Post nadrzędny dla poniższego tego posta o numerze 54

      Odp.: witam

      Oto przykład, jak duży może być klaster obliczeniowy potrzebny do trenowania dużego modelu językowego (LLM) typu GPT-4:

      Szacowana konfiguracja klastra OpenAI (dla GPT-4 lub podobnego modelu):

      * GPU (np. NVIDIA A100 80GB):

      ~10 000 – 25 000 sztuk (niektóre źródła szacują nawet więcej)

      * RAM na GPU (łącznie):

      800 TB – 2 PB

      * Interkonekt (sieć między GPU):

      NVIDIA NVLink + InfiniBand HDR/EDR

      Przepustowość: 1.6 – 3.2 Tbps między węzłami

      * CPU i RAM per node:

      Każdy węzeł z kilkoma CPU (np. AMD EPYC) i 512 GB – 1 TB RAM

      * Storage (NVMe SSD):

      Setki PB, głównie do danych treningowych i checkpointów

      * Pobór mocy:

      > 15–30 MW (megawatów)

      ---

      Dlaczego taki rozmiar?

      * Model GPT-4 ma setki miliardów parametrów (szacunkowo 300–500B).

      * Trening trwa tygodnie do miesięcy, nawet przy takim klastrze.

      * Dane treningowe: setki terabajtów lub więcej nieskompresowanego tekstu.

      * Koszty: trening GPT-4 mógł kosztować >50–100 mln USD (łącznie z czasem na GPU, prądem, chłodzeniem, utrzymaniem).

      ---

      Infrastruktura fizyczna

      * Klaster tej skali potrzebuje:

      * dedykowanego centrum danych z chłodzeniem cieczą lub zaawansowanym chłodzeniem powietrznym,

      * wysokiej niezawodności sieci (Infiniband, topologie jak Dragonfly),

      * automatyzacji zarządzania (Orchestration, Kubernetes, Ray, Slurm),

      * solidnych systemów checkpointowania.

      ---

      Jeśli chcesz, mogę też pokazać przykład mniejszego klastra do inference albo fine-tuningu, który da się zbudować znacznie taniej – na np. 8–64 GPU. Chcesz taki przykład też?

      Świetnie! Oto przykład mniejszego klastra, który można użyć do fine-tuningu lub inference dużych modeli językowych — w tym modeli z rodziny GPT, LLaMA, Mistral, itp.

      Przykład klastra do fine-tuningu i inference LLM (~8–64 GPU)

      Założenie: Chcesz uruchomić fine-tuning lub inference modelu o wielkości 7B – 65B parametrów, np.:

      * LLaMA 2/3, Mistral, GPT-J, Mixtral, Command-R

      * Może też GPT-4, ale tylko jako inference w API lub z modelami serwerowymi

      -----

      Litera B oznacza miliardy (billion) parametrów.

      * 7B = 7 miliardów parametrów

      * 65B = 65 miliardów parametrów

      To skrót od angielskiego billion (czyli 10⁹, nie bilion jak po polsku).

      -----

      Przykładowe konfiguracje klastra

      ✅ Minimum do fine-tuningu LLM 7B (np. LLaMA 2 7B)

      | Komponent | Parametry |

      | GPU | 8× A100 (40GB lub 80GB) lub 8× H100/RTX 6000 Ada |

      | CPU | 2× AMD EPYC lub Intel Xeon (np. 32–64 rdzeni łącznie) |

      | RAM | 512 GB – 1 TB |

      | Storage | 10–50 TB NVMe SSD (do danych + checkpointów) |

      | Sieć | InfiniBand (jeśli multi-node), lokalnie może być PCIe 4.0 |

      | Framework | PyTorch + DeepSpeed / FSDP / Hugging Face Transformers |

      | Koszt | ~$250–400 tys. USD (zakup lub chmura GPU np. Lambda Labs / AWS / CoreWeave) |

      ---

      Inference klastra z 2–4 GPU

      Jeśli chcesz tylko uruchamiać model, bez trenowania:

      | Komponent | Parametry |

      | GPU | 2× RTX 4090 (24GB), A100 (40GB), L40S (48GB) |

      | RAM | 128–256 GB |

      | CPU | 16–32 rdzeni |

      | Storage | SSD 2–4 TB |

      | Model | Quantized LLaMA 2/3 13B lub Mistral 7B |

      | Framework | vLLM, TGI, llama.cpp, Hugging Face PEFT |

      | Koszt | ~$10–50 tys. USD (lub taniej przy użyciu używanych GPU) |

      Użycie

      * Fine-tuning: PEFT / LoRA / QLoRA – da się robić na 1–8 GPU z odpowiednimi technikami

      * Inference API: np. z TGI (Text Generation Inference) lub vLLM dla szybkich odpowiedzi

      * Modele kv-cached: można serwować w czasie rzeczywistym

      Jeśli chcesz, mogę ci dobrać konkretną konfigurację pod:

      * inference (lokalny serwer, API),

      * fine-tuning konkretnego modelu,

      * budżet (np. do 50k zł, 100k zł, 1M zł),

      * albo wybrać chmurę (AWS, Lambda, Paperspace, OVH, itp.).

      Chcesz dopasowanie do konkretnego celu?

      xyz1
      Zgłoś
      Odpowiedz
    • Post nadrzędny dla poniższego tego posta o numerze 55

      Odp.: witam

      Skrót NT w nazwie Windows NT oznacza "New Technology", czyli "Nowa Technologia".

      Microsoft stworzył Windows NT jako zupełnie nowy system operacyjny, niezależny od wcześniejszych wersji MS-DOS i Windows 3.x. Jego celem było zapewnienie większej stabilności, bezpieczeństwa i wsparcia dla architektur wielozadaniowych oraz sieciowych — czyli czegoś bardziej "profesjonalnego", niż systemy przeznaczone dla użytkowników domowych.

      Główne cechy Windows NT:

      * 32-bitowa architektura (w czasach, gdy popularne systemy były jeszcze 16-bitowe),

      * Wielozadaniowość z wywłaszczaniem (preemptive multitasking),

      * Wielu użytkowników i obsługa uprawnień,

      * Odporność na błędy aplikacji (każda aplikacja działa w swojej przestrzeni pamięci),

      * Obsługa sieci i domen Windows.

      Pierwsza wersja, Windows NT 3.1, została wydana w 1993 roku. Nazwa „3.1” miała nawiązywać do popularnego wtedy Windows 3.1, ale pod spodem był to zupełnie inny system.

      Od Windows 2000 w górę (czyli XP, Vista, 7, 10, 11), Microsoft nadal bazuje na jądrze NT — dlatego te systemy to też technicznie „Windows NT”. Dla przykładu:

      * Windows XP = Windows NT 5.1

      * Windows 10 = Windows NT 10.0

      abc99
      Zgłoś
      Odpowiedz
    • Post nadrzędny dla poniższego tego posta o numerze 56

      Odp.: witam

      Windows NT i linia systemów Windows 95/98/Me to dwie równolegle rozwijane rodziny systemów operacyjnych Microsoftu przez długi czas. Oto jak się mają do siebie:

      ## Dwie rodziny Windows w latach 90.:

      Rodzina konsumencka | Rodzina profesjonalna (NT)

      Windows 95 | Windows NT 3.5 / 4.0

      Windows 98, 98 SE | Windows NT 4.0

      Windows Me (Millennium) | Windows 2000 (NT 5.0)

      ### Windows 95 / 98 / Me – tzw. "klasyczne" Windowsy:

      * Oparte na MS-DOS-ie — miały do niego dostęp i wymagały go do uruchomienia.

      * Mieszanka 16-bitowego i 32-bitowego kodu (czyli mniej stabilne).

      * Przeznaczone głównie dla użytkowników domowych.

      * Lepsza kompatybilność ze starszymi grami i programami DOS-owymi.

      * Brak zaawansowanego zarządzania użytkownikami, słabe bezpieczeństwo.

      ### Windows NT – systemy profesjonalne i serwerowe:

      * Całkowicie niezależne od DOS-u – pełne 32 bity.

      * Stabilne, bezpieczne, wielozadaniowe.

      * Wsparcie dla systemów plików NTFS (z uprawnieniami).

      * Przeznaczone dla firm, serwerów, stacji roboczych.

      * Mniej kompatybilne z niektórymi starymi grami/aplikacjami DOS.

      ## Zjednoczenie obu linii: Windows XP (2001)

      Microsoft z czasem porzucił linię DOS-ową (Windows Me był ostatnim) i wszystko przeniósł na fundamenty NT:

      > Windows XP (NT 5.1) to pierwszy system, który połączył stabilność NT z wyglądem i wygodą systemów konsumenckich.

      Od tego momentu:

      * Wszystkie wersje Windows (XP, Vista, 7, 8, 10, 11) opierają się na jądrze NT.

      * DOS przestał być fundamentem, ale został zintegrowany jako emulator (cmd.exe).

      Chcesz zobaczyć tabelę pokazującą rozwój tych dwóch linii rok po roku? ChatGPT może popełniać błędy. Sprawdź ważne informacje.

      abc99
      Zgłoś
      Odpowiedz
    • Post nadrzędny dla poniższego tego posta o numerze 62

      Odp.: witam

      Języki asemblera i ich użycie sięgają aż do czasów wprowadzenia zapisywanych programów komputerowych. Pierwszy język asemblera został opracowany w 1947 roku przez Kathleen Booth dla ARC2 w Birkbeck, po współpracy z Johnem von Neumannem i Hermanem Goldstine’em w Instytucie Studiów Zaawansowanych w Princeton. W 1949 EDSAC posiadał asemblera nazwanego rozkazami początkowymi wykorzystującego jedno-literowe mnemoniki. SOAP był językiem asemblera dla komputera IBM 650, napisanym przez Stana Poleya w 1955. https://pl.wikipedia.org/wiki/Asembler

      IBM 650 – pierwszy komercyjny komputer, był produkowany w zakładach Endicott (N.Y.) w latach 1953–1962. Pierwszy egzemplarz dostarczono do odbiorcy w Bostonie w 1954 roku. W 1956 roku firma IBM wytwarzała już jeden egzemplarz dziennie. Kosztował około pół miliona dolarów. Zapisywał dziesięciocyfrowe liczby na bębnie magnetycznym. Mógł pomieścić 2000 takich liczb na standardowym bębnie. Wyprodukowano około 2000 jednostek. W 1969 roku został wycofany z rynku. https://pl.wikipedia.org/wiki/IBM_650

      Gość
      Zgłoś
      Odpowiedz
      • Odp.: witam

        (...) Turing to jeden z pionierów informatyki jako twórca koncepcji maszyny Turinga[2][3]. W czasie II wojny światowej pracował nad złamaniem szyfrów III Rzeszy, maszyny Enigma. Jeden z ojców sztucznej inteligencji, proponując test Turinga jako kryterium inteligencji; wywarł tym wpływ na filozofię umysłu. (...)

        (...) W styczniu 1940 spędził kilka dni w ośrodku wywiadu Bruno we Francji, w którym pracowali przerzuceni tam po wybuchu wojny polscy matematycy: Marian Rejewski, Jerzy Różycki i Henryk Zygalski. Brytyjczycy dostarczyli im wtedy również komplet wykonanych według polskich instrukcji w Bletchley Park arkuszy perforowanych zwanych płachtami Zygalskiego[15]. Marian Rejewski, który był autorem wspomnień o tym wydarzeniu zapamiętał, że Turing był zainteresowany szczegółami połączeń wtyczkowych (Steckenverbindungen) w maszynie Enigma, a także trzyliterowymi kodami stosowanymi przez Luftwaffe[16]. (...)

        (...) W 2013 królowa Elżbieta II pośmiertnie ułaskawiła Turinga[34]. W 2014 r. powstał (o nim i jego pracy nad Enigmą) film pt. Gra tajemnic, w którym w rolę Turinga wcielił się Benedict Cumberbatch. (...)

        https://pl.wikipedia.org/wiki/Alan_Turing

        Gość
        Zgłoś
        Odpowiedz
      • Post nadrzędny dla poniższego tego posta o numerze 74

        Odp.: https://archive.ph/BmKmz

        Hutniczym piecem do gwiazd? https://www.lokalnatelewizja.pl/artykul/30222,roboty-photon-dla-mlodszych-laziki-marsjanskie-dla-starszych-trwa-ostrokosmos https://archive.ph/Z59Tf

        Komentarz spod artykułu: "Irena Renduda Dudek 07.08.2025 10:20

        Takie ciekawe zajęcia dla dzieci i młodzieży trzeba propagować, rozbudzać w młodych umysłach chęć poznawania świata i wszechświata. Te zajęcia myślę - to najciekawszy pomysł na spędzanie czasu wakacyjnego w mieście. TV. LOKALNA propagujcie ciekawe pomysły!!!!!"

        Gość
        Zgłoś
        Odpowiedz
      • Post nadrzędny dla poniższego tego posta o numerze 76

        Odp.: witam

        Brawo My 2024, czyli sesja Rady Miasta Ostrowca Św.:

        "(...) taka prośba moja (...), że tak powiem dobrze załatwiona (...)"

        Irena Renduda-Dudek: - Czy ktoś z Państwa radnych chciałby jeszcze zapytać? Proszę, Małgorzata Stafijowska.

        Małgorzata Stafijowska: - Ja bym chciała osobiście bardzo serdecznie podziękować, przepraszam Pani Przewodnicząca, Szanowni Państwo, Pani wiceprezydent i Panu wiceprezydentowi jak i służbom za to, że taka prośba moja złożona w ramach mojej interpelacji dotycząca pumptrack-a już jest, że tak powiem dobrze załatwiona. Chodzi o to, że dzieci i napisali do mnie też maila rodzice, w tej chwili mogą korzystać jeżeli chodzi o środki higieniczne, czyli tutaj mówimy konkretnie z TOI-TOI-a podczas pobytu, wielogodzinnego pobytu na tym placu zabaw, tak go nazwę, dla średniej i młodzieży. Przez kilka lat, 2 lata nie było takiej możliwości. W tej chwili jest i myślę, że to jest bardzo ważne, skoro rodzice po prostu też za to dziękują. Ja również bardzo dziękuję za pomoc w imieniu tych dzieci i młodzieży, która po prostu przez wiele godzin korzysta z tego pumptruck-a. Bardzo dziękuję.

        ---

        Małgorzata Stafijowska (dyrektor PUP) była w Twój Ostrowiecki Samorząd, KWW JG -> Tak! Dla Samorządu.

        Gość
        Zgłoś
        Odpowiedz
        • Odp.: witam

          Tak! Dla Kosmosu :)

          Gość
          Zgłoś
          Odpowiedz
27 postów w tym wątku zostało wyłączonych z wyświetlania ze względu na sprzeczność z Zasadami Forum lub czasowo. Możesz wyświetlić wątek wraz z tymi postami.

- Reklama -
- Ogłoszenie społeczne -

- Reklama -

- Reklama -
- Reklama -
- Reklama -
Losowa firma:
FHU MALPOL Halina Michalec
Branża: Nieruchomości
Dodaj firmę