EFEKTYWNOŚĆ ROZWIĄZANIA

Praca w trybie wsadowym polega na wprowadzeniu do pamięci komputera od razu całego zestawu programów, które pochodzą od różnych użytkowników. Zestaw taki nazywa się wsadem. Praca w tym trybie przebiega w następujących fazach:   gromadzenia zadań obliczeniowych;   tworzenia tzw. wsadu, czyli szeregowania zadań obli­czeniowych według zadanego kryterium, np. ważności,    wprowadzenia wsadu do maszyny cyfrowej i wyko­nanie kolejnych zadań;    wyprowadzenia wyników obliczeń.Efektywność tego rozwiązania jest zależna od zakresu autonomii pracy urządzeń zewnętrznych komputera. Jeżeli urządzenia te nie pracują automatycznie, to tryb pracy wsadowej nie różni się zbytnio od trybu konwencjo­nalnego. Jedyną zaletą opisywanego trybu jest eliminacja przestojów procesora związanych z oczekiwaniem na reakcje użytkownika w sytuacjach awaryjnych lub wpro­wadzenie kolejnego zadania. Pozostają natomiast wszyst­kie niedogodności pracy w trybie konwencjonalnym, a ponadto do wad tej organizacji pracy zaliczyć należy brak możliwości bezpośredniej współpracy człowieka z syste­mem cyfrowym oraz konieczność ciągłego organizowania wsadów.Odmiennie przedstawia się ten problem w przypadku systemu cyfrowego z pełną autonomią urządzeń zewnętrz­nych komputera (czyli działających niezależnie od jego procesora).

STYL PRACY

W okresie gdy tryb ten był ogólnie stosowanym sposo­bem użytkowania komputerów, wyróżniono następujące fazy cyklu obliczeniowego:   wczytanie programu napisanego w języku zewnętrz­nym;    jego translacja, czyli tłumaczenie na język wew­nętrzny;     wczytanie danych;   realizacja programu, czyli zadania obliczeniowego;    wyprowadzenie wyników obliczeń.Wykorzystanie zasobów systemu cyfrowego w poszcze­gólnych fazach takiego cyklu obliczeniowego jest nierów­nomierne. Wczytanie programu i danych oraz wyprowa­dzenie wyników obliczeń angażuje jedynie urządzenia wejściowo-wyjściowe, a procesor komputera jedynie syn­chronizuje i organizuje pracę tych urządzeń. W pozosta­łych dwóch fazach procesor jest wykorzystywany w pełni, natomiast prawie wcale nie są wykorzystywane jego urządzenia zewnętrzne. Taki styl pracy systemu cyfro­wego, w którym – oprócz nierównomiernego wykorzysty­wania jego zasobów – występowały często przestoje maszyny cyfrowej (zwłaszcza na etapie uruchamiania pro­gramu), szybko uznano za nieefektywny.Rozwiązaniem wyraźnie ograniczającym liczbę przesto­jów urządzeń systemu cyfrowego, a także rozdzielającym obszary działania programisty i operatora maszyny cyfro­wej, było wprowadzenie trybu pracy wsadowej, zwanego też trybem pracy partiowej.

KOMPUTERY UNIWERSALNE

Komputery uniwersalne były projektowane i budowane z myślą o realizacji zadań obliczeniowych oraz przetwa­rzania danych na tym samym zestawie technicznym.Prace rozwojowe związane zwłaszcza z doskonaleniem wyrobów zaliczanych do drugiej i trzeciej z wymienionych grup z całą wyrazistością pokazały role i znaczenie oraz wpływ oprogramowania podstawowego komputerów na ocenę ich parametrów użytkowych. Dotyczyło to zwłaszcza systemów operacyjnych, które stwarzają warunki do roz­budowy zestawów technicznych komputerów i wykorzy­stywania określonych metod obliczeń oraz przetwarzania danych bądź, ograniczając zasięg tego rodzaju zabiegów, powodowały, że określone typy komputerów, mimo doskonałych parametrów technicznych tworzących je urządzeń, nie mogły konkurować z innymi komputerami wyposażonymi w nowocześniejsze systemy operacyjne.Oczywiście, granice między wymienionymi grupami komputerów były umowne i bardzo nieostre. W celu umożliwienia jednoznacznego określania przynależności nowobudowanych komputerów do jednej z trzech powyż­szych grup zostały opracowane specjalne programy certy­fikacyjne zwane mieszankami.

PREFEROWANY SYSTEM WARTOŚCI

Jeśli chodzi o preferowany przez osoby niewidome i niedowidzące sys­tem wartości, najbardziej cenioną okazała się rodzina. Na wysokim miejscu postawiło ją 20 ankietowanych (91%), przy czym dla 9 z nich znajduje się ona na pierwszym miejscu. Na drugim co do ważności miejscu znajduje się zdrowie. Jest ono bardzo istotne dla 16 badanych (73%), w tym dla 8 z nich najważniejsze. Warto podkreślić, że aż 17 respondentów (77%) wśród głów­nych wartości uznaje pracę (taki sam wynik odnosi się do pieniędzy). Poło­wa osób na wysokim miejscu stawia ponadto przyjaciół i pomaganie innym. Do nielicznych już, pojedynczo wymienianych wartości, zaliczono samoreali­zację, religię, rekreację, zadowolenie. W przypadku osób z uszkodzeniem analizatora słuchowego, zdecydowana większość (11 osób – 73%) nie ma wykształcenia średniego, jedynie ukończone szkoły zawodowe lub podstawowe. Wykonywane przez nich zawody w zasadzie odpowiadają wykształceniu, np. kobieta po liceum zawodowym z kursem kra­jowego jest krawcową, a mężczyzna po szkole podstawowej – pilarzem.

BADANIA PEDAGOGICZNE

Badania pedagogiczne wyka­zują bowiem, iż treści zbyt rozproszone, nietworzące spójnych całości, pozna­wane w sposób okazjonalny i chaotyczny utrudniają uczenie się i opanowy­wanie wiedzy. Nie chodzi zatem o zapoznawanie ucznia z izolowanymi infor­macjami, lecz o przedstawianie szerszych układów, a więc elementów wraz z różnymi powiązaniami. Ułatwia to bowiem tworzenie pojęć w umyśle dziecka (Gutowska 1989, s. 7). Aspekt poznawczy przedmiotu obejmuje szereg kręgów zagadnieniowych dotyczących treści przyrodniczych, geograficznych, społecznych, komu­nikacyjnych oraz zdrowotnych. Poznawana przez dziecko wiedza dotyczy znajomości podstawowych gatunków roślin i zwierząt najbliższego otoczenia dziecka, ich głównych cech zewnętrznych i funkcji oraz wybranych cech środowiska społeczno-przyrodniczego jego otoczenia, naturalnych i w róż­nym stopniu przekształconych przez człowieka, takich jak: klasa szkolna, dom rodzinny, osiedle, miejscowość, najbliższa okolica, wybrane miasta Pol­ski, ogród, sad, pole uprawne, łąka, gospodarstwo hodowlane, las, środowi­ska wodne.

SZTUKA OSTROŻNEGO OPISU

Najpierw można to czynić wykorzystując sztukę ostrożnego opisu 0      różnicującego oglądu (opis fenomenologiczny – zjawiskowy), a następnie, dzięki sztuce rozumienia, interpretować ludzkie bycie (objaśnianie hermeneutyczne). Zadaniem fenomenologii jest więc odsłonięcie sensu podstawo­wego ludzkich działań, który czyni je dostępnym świadomości i zrozumia­łym. Dzięki redukcji ejdetycznej możliwy staje się, na podstawie opisu feno­menów życia codziennego, ogląd ich istoty. Zadaniem hermeneutyki jest natomiast objaśnienie i tłumaczenie czegoś przez coś, a więc interpretacja sensu skrywanego za różnymi sposobami ludzkiego „wyrażania siebie”. Dzię­ki opisowi fenomenologicznemu oraz hermeneutycznemu możliwe staje się zainteresowanie nie tym, co w człowieku można obliczyć i uogólnić na pod­stawie ilościowego opracowania wskaźników, lecz tym, co wyraża indywidu­alną jakość danego człowieka, a więc Jakość szczególnej egzystencji człowie­ka i jego spraw, czyli zainteresowanie sensem jego życia” (Łysek 1997). Kierunki tych poszukiwań można prześledzić na podstawie studiów literatury i kwerendy archiwaliów. Pozwalają one nakreślić syntetyczny ob­raz zmian, jakie dokonały się w oświacie w zakresie kształcenia wczesno- szkolnego.

System rejestracji wizji

Dynamiczny rozwój zapisywania i odczytywania na taśmach magnetycznych obrazów telewizyjnych oraz towarzyszącego dźwięku, jak też stosowanych do tego celu urządzeń magnetowidów powszechnego użytku zaznaczył się dopiero w ostatnim dziesięcioleciu. Niemniej jednak już od lat trzydziestych zagadnieniami magnetycznej rejestracji sygnałów telewizyjnych interesowali się naukowcy, specjaliści, konstruktorzy i technolodzy wielu krajów. Od tego czasu przeprowadzono wiele badań i eksperymentów związanych zarówno z bezpośrednim zapisem sygnałów telewizyjnych, jak i z podkładem w.cz. oraz zastosowaniem modulacji częstotliwościowej FM. Stosowano także różne systemy głowic wizyjnych: nieruchome i wirujące. Ostatecznie zdecydowano się na zastosowanie specjalnej odmiany modulacji częstotliwościowej z wykorzystaniem tylko jednej lewej wstęgi bocznej oraz wirujących uniwersalnych (zapisująco-odczytujących) głowic wizyjnych. Dźwięk towarzyszący obrazom jest zapisywany za pomocą głowic nieruchomych, z podkładem w.cz., jak w typowych magnetofonach. Praktycznym wynikiem tych badań było opracowanie, opatentowanie uruchomienie seryjnej produkcji pierwszych w świecie magnetowidów profesjonalnych przeznaczonych do telewizyjnej techniki studyjnej. Tego wybitnego osiągnięcia dokonano w amerykańskiej firmie Ampex w 1956 roku.

Dopuszczalne są także i inne metody pomiaru szumu, w których stosuje się inne filtry

Wartości poziomu szumu otrzymywane przy pomiarach różnymi metodami znacznie się różnią. Przykładem mogą być wyniki pomiarów szumu ciszy jednego egzemplarza taśmy mierzonego w różnych warunkach: Wartości poziomu szumu ciszy tego samego egzemplarza taśmy zmierzone przy włączonym układzie redukcji szumu Dolby B wynoszą: Przy porównywaniu danych katalogowych należy więc zwrócić uwagę na to, według jakiej metody były mierzone szumy taśmy oraz dla jakiej szerokości śladu. Im mniejsza szerokość śladu, tym mniejszy jest odstęp szumu od sygnału. Przebieg zmierzonej charakterystyki szumów i ich wartość zależy od zastosowanej korekcji. Jak już wspomniano, szum pauzy jest związany z budową samej warstwy magnetycznej taśmy. Metody obniżenia poziomu szumów polegają więc na uzyskaniu coraz mniejszych cząstek magnetycznych dających się gęsto upakować w warstwie i tworzących gładką powierzchnię
Te same czynniki, które są przyczyną powstawania szumów, wywołują też inny rodzaj zakłóceń niestabilność poziomu wyjściowego, czyli wahania poziomu odtwarzanego sygnału. Mogą to być powolne, trwające dłużej niż 1 s, zmiany poziomu wywołane przede wszystkim zmianami grubości warstwy magnetycznej wzdłuż jej długości, zauważalne na średnich i małych częstotliwościach, oraz szybkie, chwilowe (do 1 s) wahania poziomu występujące na dużych częstotliwościach.

Technika rejestracji magnetycznej

Stosuje się wszystkie wymienione sposoby. Powszechnie do kasowania stosowane są głowice zasilane prądami wielkiej częstotliwości. Tylko w magnetofonach bardzo niskiej klasy stosuje się kasowanie magnesami lub głowicami zasilanymi prądem stałym. Do wytworzenia prądów kasowania wielkiej częstotliwości stosuje się różne układy generatorów. Muszą one być tak zaprojektowane, aby prąd kasowania i podkładu wielkiej częstotliwości zawierał jak najmniej parzystych harmonicznych, a zwłaszcza drugiej, ponieważ poziom szumów na skasowanej taśmie jest wprost proporcjonalny do zawartości drugiej harmonicznej prądu kasowania. Wiadomo, że szumy takie są wynikiem m.in. niesymetrii elektronicznych układów kasowania i podkładu. W tym przypadku na taśmie zapisuje się składową stałą spowodowaną niesymetrycznością prądów kasowania i podkładu. Częstotliwość prądów kasowania i podkładu należy tak wybierać, aby była ona od 3 do 5 razy większa od największej częstotliwości zapisywanego pasma akustycznego. Chodzi tutaj o to, aby uniknąć interferencji między tymi częstotliwościami.

Sygnały elektryczne

Otrzymane sygnały elektryczne są następnie jeszcze dodatkowo przetwarzane i na koniec za pomocą przetwornika, jakim jest zapisująca lub uniwersalna (zapisująco-odczytująca) głowica magnetyczna magnetofonu lub magnetowidu, przekształcane na pole magnetyczne oddziałujące w niewielkiej przestrzeni przed głowicą na taśmę magnetyczną. Jak już powiedziano, każde drganie złożone, a więc sygnały dźwiękowe i optyczne oraz odpowiadające im przebiegi elektryczne, można przedstawić jako sumę drgań prostych. Opisując zjawiska zachodzące w procesie rejestracji można więc rozpatrywać osobno zapisywanie i odczytywanie takich sygnałów określonych częstotliwościach leżących w paśmie akustycznym 20… 20 000 Hz paśmie telewizyjnym 0 … 6 MHz. Chwilowym zmianom wartości natężenia prądu elektrycznego płynącego przez uzwojenie głowicy odpowiadają zmiany parametrów magnetycznych: wartości strumienia magnetycznego <P w rdzeniu głowicy, natężenia pola magnetycznego H w szczelinie i przed szczeliną głowicy oraz magnetyzacji M materiału magnetycznego.

SKUTECZNA ELIMINACJA

Rozwiązanie to skutecznie eliminuje niemal wszelkie przestoje procesora i urządzeń zewnętrznych w czasie realizacji zadań obliczeniowych. Mimo to nie jest ono pozbawione istotnych mankamentów. Do nich zalicza się m.in. to, że zadanie, którego realizacja została zaini­cjowana, musi być wykonane do końca (nawet z przer­wami wynikającymi np. z konieczności dostarczenia potrzebnych danych). Jednakże o poprawności wykony­wania programu oraz o rzetelności uzyskanego wyniku obliczeń możemy sądzić dopiero po jego wyprowadzeniu na zakończenie zadania obliczeniowego. Brak możliwości ingerowania w bieżące procesy obliczeniowe staje się źródłem nieuzasadnionych strat wynikających z konie­czności doprowadzania do końca procesów realizacji zadań obarczonych błędami. Ponadto wadami użytkowa­nia systemu cyfrowego w trybie pracy wsadowej są długie czasy oczekiwania i organizowania wsadu, a także daleko posunięta izolacja użytkownika od systemu cyfrowego. Warto zauważyć, że z opisywanym trybem użytkowania komputerów jest związane pojęcie czasu obrotu zadania, czyli czasu, który upływa między momentem oddania zadania do realizacji a momentem uzyskania wyniku obli­czeń.

FORMY UŻYTKOWANIA

Elementami współczesnych systemów cyfrowych są autonomicznie działające procesory, czyli urządzenia zdolne do samodzielnego wykonywania programów. Do grupy tych urządzeń są zaliczane także niektóre kanały. Obecność procesorów w strukturze wzmiankowanych systemów stwarza naturalną potrzebę stosowania zasady współbieżności ich pracy. Wyrazem doskonalenia metod praktycznego wykorzystania tej zasady w eksploatacji systemów liczących było wprowadzanie kolejnych, wydaj­niejszych trybów ich użytkowania. I tak, najprostrzym, a jednocześnie najstarszym, trybem wykorzystywania komputerów było oddanie go do wyłą­cznej dyspozycji jednego użytkownika na czas niezbędny do realizacji jego zadania obliczeniowego. Tryb ten jest zwany konwencjonalnym. Charakterystycznym jego ele­mentem była daleko posunięta integracja funkcji i obsza­rów działania programisty oraz operatora systemu. Wyni­kała ona z faktu, iż zazwyczaj ten pierwszy osobiście uruchamiał swój program i nadzorował jego wykonanie, albowiem – będąc dysponentem wszystkich możliwości systemu – mógł dynamicznie uczestniczyć w procesach obliczeniowych.

MYŚL BUDOWY

Urządzenia te są budowane z myślą o stworzeniu największych systemów cyfrowych, w których zastosowane byłyby techniczne układy nadzorczo-kontrolne, elementy o wysokim stopniu scalenia oraz w szerokim zakresie można byłoby „zrówno- leglić” działanie poszczególnych elementów składowych.Wśród przedstawicieli tej grupy komputerów należy wymienić: CDC 6600 (1964 r.) – superkomputer o prostej architekturze, z równolegle działającymi elementami skła­dowymi oraz rejestrami o charakterze pamięci notatniko­wej, wcześniej opisany CRAY 1 (1975 r.), wieloproceso­rowe superkomputery CRAY XMP (1984 r.) i CRAY 2 (1985 r.), a także CONVEX, zwany mini superkomputerem.O      aktualności wyżej opisanych wzorców może świad­czyć to, że dotyczą one różnych komputerów, niezależnie od poziomu technologii użytej do produkcji ich elementów składowych. Na przykład koncern Motorola po 10 latach prac wypuścił na rynek układ 68 020, który umożliwia stosowanie zapisu zmiennoprzecinkowego i wykorzysta­nie dużej pamięci wirtualnej, co w rezultacie daje realizację idei IBM 360 w technice mikroprocesorowej, zaś firma Semicondoctor National jako wzorcem dla swych wyro­bów posłużyła się architekturą minikomputera VAX.

CYKL ROZWOJOWY

Taki cykl rozwojowy jest charakterystyczny dla mikrokomputerów.Biorąc pod uwagę zmiany architektury komputerów, można obecnie wyróżnić cztery główne jej typy, a mianowicie:   prosty komputer (lata 1950-1960) oraz konwencjo­nalny mikroprocesor (1971 r.);  mikroprogramowany procesor interpretujący listę rozkazów (1964 r.);    mikroprogramowany procesor z pamięcią notatni­kową (1968 r.);    rozbudowany procesor z oddzielną pamięcią notatni­kową dla instrukcji i danych (1985 r.).Poglądowo typy te przedstawiono na rys. 17. Występu­jąca tam pamięć notatnikowa, zastała po raz pierwszy zastosowana w komputerach IBM 360/85 jako pamięć o małej pojemności służąca do przechowywania wcześniej odczytanych danych z pamięci operacyjnej. Dzięki takiemu zabiegowi rozbieżność między szybkościami działania pro­cesorów pamięci operacyjnej została zniwelowana do zera. Biorąc pod uwagę chronologię rozwoju poszczególnych klas komputerów, można szeregować kolejnych ich przed­stawicie. Warto zauważyć, że w ramach powyższego podziału mieszczą się także wszystkie te rozwiązania, które są określane mianem superkomputerów.

KOMPUTERY W SYSTEMACH CYFROWYCH

Komputery należące do tej grupy pozwalają na zmniejszenie rozmiarów programów użytkowych dzięki istnieniu daleko posuniętej odpowiedzialności między źródłową postacią rozkazu i pojedynczą instrukcją maszy­nową. Tymczasem idea komputerów o zredukowanej liś­cie rozkazowej wynika z dążenia do skrócenia czasu reali­zacji programów przez uproszczenie pracy centralnego procesora.Drugi kierunek zmian wyznaczają rozwiązania wykorzy­stujące wektorowe typy danych w celu przyspieszenia czasu trwania obliczeń (zwłaszcza na potrzeby prac naukowo-badawczych). Prototypem rozwiązań technicz­nych i architektonicznych w tym obszarze był komputer CRAY-I zbudowany w 1975 r.Trzecim, wśród najważniejszych, kierunkiem zmian jest zastosowanie mikroprocesorów, które umożliwiają rozsze­rzenie obszaru wykorzystywania technologii wieloproce­sorowych, a tym samym – przyczyniają się do podniesie­nia efektywności działania całych systemów cyfrowych. Niezależnie jednak od stopnia i zakresu wpływu poszczególnych wyznaczników na aktualny stan rozwoju komputerów, można stwierdzić że ogólny cykl zmian obejmuje następujące etapy: komputer o minimalnej liście rozkazów, komputer o zredukowanej liście rozkazów,

 

KOMPLEKSY MASZYN

Obecnie można spotkać tzw. kompleksy maszyn cyfro­wych, czyli zestawy komputerów pracujących w syste­mach wieloprocesorowych i wielomaszynowych. Współ­praca między nimi może być organizowana na jednym z trzech poziomów:    najniższy ma miejsce wtedy, gdy dwa procesory wykorzystują wspólną pamięć zewnętrzną jako środek komunikacji;   wyższy – gdy wykorzystywany jest kanał transmisji danych między maszynami;   najwyższy – gdy dwa procesory wykorzystują wspólne pole pamięci operacyjnej.Analiza dotychczasowych zastosowań komputerów w systemach cyfrowych wskazuje na istnienie zarysowa­nych kierunków zmian ich architektury. Głównym wyzna­cznikiem tego procesu jest dążenie do pełnej realizacji idei komputera o tzw. zredukowanej liście rozkazów, dostoso­wanej do obszaru i specyfiki jego zastosowania. Rozwią­zaniem konkurencyjnym są komputery o tzw. pełnej liście rozkazów, to znaczy takiej, która obejmuje działania na wszystkich typach danych i za pomocą operacji typowych dla współczesnych języków programowania wysokiego poziomu.

WYMIENIONE CECHY

Wyżej wymienione cechy wraz z równoległą i prawie niezależną pracą arytmometru, pamięci operacyjnej i kanałów wejścia-wyjścia przyczyniają się do wydatnego zwiększenia mocy obliczeniowej eksploatowanych kompu­terów. W tej grupie elementów wymienić należy wielo- programowość, która pozwala na jednoczesne przetwarza­nie od kilku do kilkunastu programów użytkowych, a także subprogramowość, czyli organizację własną programów. Ta ostatnia pozwala na wydzielanie w programach auto­nomicznych segmentów, między którymi program może przekazywać sterowanie, mając na uwadze efektywność wykorzystania zasobów systemu komputerowego. Inną cechą współczesnych systemów komputerowych jest wie­lodostępność, dzięki której z jednostką centralną może współpracować kilkadziesiąt urządzeń zewnętrznych zain­stalowanych zarówno w niewielkiej, jak i dużej odległości od niej. Wiele komputerów jest wyposażonych w tzw. kanały przemysłowe, które umożliwiają sterowanie w cza­sie rzeczywistym. Dzięki nim jest możliwe automatyczne zbieranie informacji z wielu punktów pomiarowych okreś­lonego procesu fizycznego, przetwarzanie ich przez kom­puter, a następnie na podstawie uzyskanych wyników przetwarzania, sterowanie wieloma urządzeniami wyko­nawczymi w czasie i z szybkością zgodną z przebiegiem procesu technologicznego.

OPARCIE SYSTEMU

Aby system operacyjny mógł tę funkcję właściwie zreali­zować, użytkownik powinien załączać do każdego swego programu informację pozwalającą go identyfikować oraz prowadzić właściwą gospodarkę zasobami systemu. Informacje te są podawane w postaci opisu pracy zleconej systemowi operacyjnemu. Typowy opis pracy zawiera nazwę pracy, wykaz urządzeń wejściowych i wyjściowych oraz pamięci zewnętrznych, podaje warunku wyjątkowe, określa nazwy wykorzystywanych programów biblioteki systemowej, postać wyniku końcowego itp. Biorąc powyższe pod uwagę, można stwierdzić, że reali­zując swoje funkcje, system operacyjny angażuje kompu­ter na czas, który użytkownik może uznać za bezproduk­tywnie stracony. Opinia ta będzie prawdziwa jedynie wtedy, gdy w wyniku działania systemu operacyjnego nie nastąpi automatyzacja wszystkich czynności niezbędnych przy zarządzaniu i operowaniu systemem, a w jej rezultacie wzrost efektywności działania systemu komputerowego.Główne funkcje współczesnych systemów operacyjnych to:  sterowanie współpracą elementów sprzętu liczącego;zarządzanie i kontrola wymiany informacji w syste­mie liczącym;   sterowanie procesami wejścia-wyjścia;   zarządzanie pamięciami;  organizacja przebiegu prac użytkowych;konwersacja z operatorem i użytkownikiem;   detekcja i korekcja błędów oprogramowania;sygnalizacja i lokalizacja awarii sprzętu.