Logogram strony

Myśliciel A.Rodin

Rozmiar tekstu

Szerokie Porozumienie na Rzecz Umiejętności Cyfrowych w Polsce

Ocena użytkowników: 0 / 5

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive

W dniu 3 lipca 2013 roku odbyła się w Sali Kolumnowej Pałacu Prezydenckiego konferencja inaugurująca powołanie Porozumienia będącego nieformalnym zrzeszeniem instytucji, organizacji i firm, które chcą wspierać rozwój kompetencji cyfrowych Polaków. Inicjatorami Porozumienia są Minister Cyfryzacji i Administracji Michał Boni oraz lider cyfryzacji w Polsce Włodzimierz Marciński. Porozumienie będzie działać na rzecz zdobywania przez obywateli naszego kraju cyfrowych umiejętności niezbędnych zarówno na rynku pracy, jak i w życiu publicznym. Porozumienie zostało objęte honorowym patronatem Prezydenta Bronisława Komorowskiego, a w spotkaniu udział wzięła m.in. wiceprzewodnicząca Komisji Europejskiej i jednocześnie komisarz europejski ds. agendy cyfrowej Neelie Kroes. Zobacz relację z konferencji.

Rozwój kompetencji cyfrowych Polaków będzie się dokonywać przez zapewnienie bezpłatnego dostępu do Internetu w bibliotekach publicznych, prowadzenie szkoleń dotyczących korzystania z komputera i Internetu dla dzieci, młodzieży i dorosłych a także kampanii zachęcających młodzież do podejmowani studiów na kierunkach informatycznych. Przewidziany jest też program dla informatycznej edukacji pokolenia 50+ szczególnie dotkniętego informatycznym wykluczeniem. Szacuje się, że w Polsce jest do grupa około 10 milionów osób.

Uczestnicy spotkania (którym był również niżej podpisany) otrzymali arcyciekawy dokument: Manifest w sprawie e-umiejętności będący dziełem wielu autorów, do którego wstęp napisał Antonio Tajani, Wiceprzewodniczący Komisji Europejskiej ds. Przemysłu i Przedsiębiorczości. Z dokumentu dowiadujemy się, że Europa cierpi na poważny deficyt ludzi z profesjonalnym przygotowaniem informatycznym, a w europejskiej gospodarce cyfrowej marginalizowanych jest 300 milionów osób. Mimo że bezrobocie w śród młodzieży sięga średnio 22%, pracodawcy nie mogą znaleźć pracowników na stanowiska wymagające przygotowania naukowego i technicznego.

W UE tylko niecałe 1,5% osób w wieku 20-29 studiuje nauki ścisłe i techniczne na poziomie akademickim. Wpływ na tę sytuację mają złe programy nauczania, a problem zaczyna się już na poziomie szkoły podstawowej. Informatyka jest w większości krajów unijnych przedmiotem do wyboru. Chlubny wyjątek stanowią Szwajcaria i Austria, gdzie informatyka jest przedmiotem obowiązkowym (w Austrii od pierwszej klasy szkoły podstawowej). A dzieje się tak, mimo że do roku 2015 aż 90% wszystkich stanowisk pracy będzie wymagać podstawowych e-umiejętności (badania International Data Corporation).

Interesujące jest też obalenie mitu o informatycznym przygotowaniu młodego pokolenia. Okazuje się, że zaledwie 25% młodych ludzi w UE określa siebie jako "mających wysoki poziom kompetencji informatycznych", podczas gdy ich umiejętności ograniczają się do korzystania z wyszukiwarek internetowych, umieszczania wiadomości na forach dyskusyjnych, wysyłania maili (dumnie podkreślają, że z załącznikami), dokonywania zakupu w Internecie plików muzycznych i wymieniania się tymi plikami. W tej sytuacji nie dziwi fakt, że aż 46% do 56% firm we wszystkich sektorach bezskutecznie poszukuje pracowników, którzy zajęliby się ich systemami informatycznymi.

Autorzy Manifestu wskazują również na fakt, że kraje takie jak Indie i Chiny, które do tej pory łagodziły deficyt informatyków w Europie (i nie tylko), wkrótce będą potrzebowały tych specjalistów u siebie. A o szybkości z jaką rośnie na świecie zapotrzebowanie na usługi informatyczne może świadczyć choćby fakt, że dziesięć lat temu wysyłano dziennie 12 milionów maili, a dziś dziennie krąży ich 247 miliardów. W Wielkiej Brytanii poziom zatrudnienia w zawodach związanych z technologią obliczeń w chmurze wzrośnie pomiędzy rokiem 2010 a 2014 aż 349%

Gdzie więc szukać rezerw? Zdaniem autorów Manifestu w prawidłowo kształtowanych programach edukacyjnych od szkoły podstawowej po uczelnie wyższe, a także w podniesieniu prestiżu zawodu informatyka na poziomie firm, gdzie powinni być wykorzystywani w projektach tworzących innowacje, a nie jedynie jako konserwatorzy sprzętu i oprogramowania.

W roku 2010 Komisja Europejska przyjęła Agendę Cyfrową dla Europy przygotowaną przez wiceprzewodniczącą Neelie Kroes. Agenda określa siedem kluczowych obszarów działania:

  1. stworzenie Jednolitego Rynku Cyfrowego
  2. większa interoperatywność,
  3. zwiększenie bezpieczeństwa w sieci i zaufania do Internetu,
  4. szybszy dostęp do Internetu,
  5. zwiększenie inwestycji w badania i rozwój,
  6. rozwój umiejętności cyfrowych oraz włączenie społeczne,
  7. włączenie technik komunikacyjnych do rozwiązywania najważniejszych wyzwań współczesnego świata takich jak zmiany klimatu, czy starzenie się społeczeństw.

Inna bardzo ciekawa koncepcja, to wykorzystanie uśpionego potencjału kobiet w zakresie nauk technicznych. Dziś stanowią one od 10% do 30% studentów w obszarze informatyki, co wynika znacznie bardziej z tradycji i uwarunkowań kulturowych niż z ich predyspozycji intelektualnych. Jak napisał The Economist z 15 kwietnia 2006 roku: „Zapomnijmy o Chinach, Indiach i Internecie: motorem wzrostu gospodarczego są kobiety”.

Informatyka za lat dwadzieścia

Ocena użytkowników: 0 / 5

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive

Wypowiedź z 6 sierpnia 2011
dla Ośrodka Edukacji Informatycznej i Zastosowań Komputerów
z okazji dwudziestolecia działalności.


Dwudziestolecie Ośrodka Edukacji Informatycznej i Zastosowań Komputerów skłania do refleksji i postawienia pytania, czego możemy się spodziewać w tych dziedzinach za kolejne dwadzieścia lat? Aby uzmysłowić sobie, jak trudne jest to pytanie, cofnijmy się wstecz nieco dalej niż dwadzieścia lat, bo do roku 1986. Wybieram tę datę, bo wtedy przywiozłem sobie z Danii, gdzie miałem kontrakt na Uniwersytecie Kopenhaskim, mój pierwszy PC. Był to produkt amerykański marki Sperry z pamięcią RAM 128 Kb, oczywiście bez twardego dysku i z monitorem nie wyświetlającym grafiki. Do tego edytor tekstu MultiMate jako jedyna aplikacja. Za to wszystko zapłaciłem tyle, ile kosztowała w tamtym czasie w Danii (bez podatku) Toyota Carina 2000, czyli około dwustu (tak!) moich ówczesnych miesięcznych pensji na stanowisku dyrektora naukowego Instytutu Podstaw Informatyki PAN lub jednej mojej pensji profesora Politechniki Duńskiej w Lyngby.

W tym czasie w Polsce era PC dopiero się zaczynała. Od chwili, kiedy Stany Zjednoczone zniosły embargo na szesnastobitowy mikroprocesor 8086 dla „strefy sowieckiej”, zaczęły się pojawiać kopie IBM’ów wytwarzane w krajach, które później nazwano azjatyckimi tygrysami. Jednakże wiedza informatyczna była dostępna prawie wyłącznie informatykom, a użytkowników nielicznych pecetów, w braku dostępu do aplikacji, uczono głównie programowania w Basicu. Pamiętam, jak w tamtych czasach jakiś hutniczy resort zorganizował dla prezesów największych firm (państwowych oczywiście) „kurs zastosowań informatyki”, na którym uczono ich programowania w Basicu na komputerach-zabawkach marki Sinclar z ośmiobitowym procesorem. To miał być pierwszy krok do informatyzacji naszego przemysłu ciężkiego.

W tamtych czasach jednakże, podobnie jak dziś, uważano, że dokonujący się postęp informatyki jest wprost zawrotny. Komputer, który można postawić na biurku! Przecież kolejne dwadzieścia pięć lat wstecz pierwszy polski komputer XYZ miał 1 Kb pamięci RAM (ultradźwiękowej) i zajmował salę o powierzchni około 40 m2. Oczywiście nie miał ani monitora, ani podłączonej drukarki, a programy pisało się najpierw w kodzie zerojedynkowym, a dopiero nieco później w języku kodów symbolicznych.

Skoro informatyka przez ostatnie pięćdziesiąt lat dokonała takiego oszałamiającego postępu, to czy jest coś, co się od tamtych prehistorycznych czasów nie zmieniło? Otóż nie zmieniła się zasada działania komputera oparta na przełącznikach otwierających lub zamykających przepływ prądu. Te przełączniki są sterowane impulsami elektrycznymi, które muszą być dostatecznie silne, aby nie zostały „zagłuszone” przez przypadkowe impulsy płynące z otoczenia np. w wyniku pola magnetycznego generowanego przez różne urządzenia, czy nawet promieniowania kosmicznego. Silne impulsy zużywają tak dużo prądu, że dziś ograniczeniem dla rozwoju tradycyjnej technologii komputerów jest przede wszystkim bariera energetyczna. Oczywiście nie dla aktualnych zastosowań, ale już symulowanie działania mózgu ludzkiego nie jest możliwe właśnie z tego powodu. Jak się bowiem okazuje, symulacja pięciu sekund  pracy mózgu ludzkiego, która „kosztuje” organizm 10 watów, wymaga osiem i pół minuty pracy największego amerykańskiego superkomputera, który w tym czasie konsumuje 1,4 miliona watów! Bo choć dziś komputery są miliony razy szybsze, a ich pamięci miliony razy pojemniejsze niż pół wieku temu, to podstawowa zasada ich działania się nie zmieniła.

Trwają więc prace naukowe nad zbudowaniem przełącznika zbliżonego parametrami do ludzkiej synapsy odpowiedzialnej za przekazywanie impulsów pomiędzy neuronami. I oto w tym roku w Uniwersytecie Stanforda w Kalifornii powstało takie urządzenie (patrz http://news.stanford.edu/news/2011/july/nano-synapse-computing-061211.html). Jest zbudowane w nanotechnologii, zużywa bardzo mało energii i dodatkowo może przyjmować 100 różnych stanów w porównaniu do dwóch (0 i 1) tradycyjnego przełącznika. Jak wyjaśniają twórcy tego urządzenia, pozwoli ono na budowanie „mikroprocesorów zdolnych do uczenia się, adaptowania do zmieniających się warunków oraz podejmowania decyzji opartych na rachunku prawdopodobieństwa”. Może też posłużyć do symulowania działania mózgu ludzkiego, co otwiera zupełnie nowe horyzonty przed informatyką. Nowe nie tylko ilościowo, ale przede wszystkim jakościowo.

Co z tej perspektywy możemy powiedzieć o przyszłości roku 2031? Z pewnością tylko jedno — że niczego nie jesteśmy w stanie przewidzieć.

Tyle z perspektywy sprzętowej. A softwareowa? I tym razem trzeba powiedzieć, że z pewnego punktu widzenia nie posunęliśmy się w porównaniu do stanu sprzed pięćdziesięciu lat. Oczywiście mamy miliony aplikacji działających miliony razy szybciej niż kiedyś i zawierające miliony razy więcej kodu każda niż kiedyś, ale podstawowa technologia tworzenia oprogramowania nie zmieniła się. Nie zmieniła się w tym względzie, że informatyk do dziś nie pracuje w takim reżymie, jak każdy inny inżynier. Bo „każdy inny inżynier”, np. inżynier budujący most, zaczyna od wykonania projektu, którego istotnym elementem są obliczenia gwarantujące, że po zbudowaniu most się nie zawali. Oczywiście przed oddaniem mostu do eksploatacji obciąża się go próbnie, ale mosty w ogromnej większości te próby wytrzymują. Nie zawalają się.

Z aplikacją komputerową jest całkiem odwrotnie. Przekładając to na mostową alegorię, zamiast inżynieryjnego projektu z obliczeniami powstaje opis przyszłego mostu w języku zbliżonym do potocznego (specyfikacja), następnie się most buduje (pisze program), a w trzeciej kolejność sprawdza jego wytrzymałość (testuje). No i okazuje się, że praktycznie żaden komputerowy most nie przechodzi tego testu — po zbudowaniu nie nadają się do eksploatacji. Wtedy następuje proces usuwania błędów zwany eufemistycznie „uruchamianiem systemu”. Ten proces pochłania nierzadko 50% i więcej budżetu całego projektu. I na tym oczywiście nie koniec. Dziurawy most jest przekazywany użytkownikowi, by nieusunięte do tej pory dziury usuwać już na jego koszt w ramach abonamentu serwisowego. Na dodatek, producent aplikacji nie sprzeda produktu klientowi dopóki ten nie podpisze deklaracji, że z góry rezygnuje z wszelkich roszczeń, jakie mógłby mieć z powodu ewentualnych strat poniesionych z powodu błędów w tejże aplikacji. Czy jest do pomyślenia taka sytuacja przy zakupie samochodu, czy telewizora? Czy kupilibyśmy pralkę, której producent oczekuje, że nie będziemy dochodzić odszkodowania, gdy pralka zaleje nam mieszkanie lub spowoduje pożar? Z pewnością nie. Co więcej, takie działanie ze strony producenta byłoby wręcz nielegalne. W informatyce jest inaczej, mimo że komputery spowodowały już niejedną katastrofę by wymienić rozbicie się amerykańskiego lądownika na Wenus (lata 1980.), katastrofę platformy wiertniczej w norweskim fiordzie (1991), katastrofę Airbusa w Warszawie (1993), przeoczenie przez niemieckie służby meteorologiczne zbliżania się huraganu Lothar (1999). Takich przykładów można podać znacznie więcej.
Czy tej sytuacji nigdy nie da się zmienić? Wierzę, że się da, bo problem jest nie tyle techniczny — choć technicznie oczywiście też — ale psychologiczno-marketingowy. Do tej pory rynek na produkty informatyczne przyjmuje ten stan rzeczy za naturalny, bo klientom wmówiono, że taka jest natura produktów softwareowych. Wmówiono tak skutecznie, że uwierzyła w to również część informatyków. Ale niech tylko pojawi się pierwszy producent oprogramowania, który nie zażąda od klienta zrzeczenia się wszelkich przyszłych roszczeń. Więc może za dwadzieścia lat…

No a edukacja informatyczna? Czy ta też nie zmieniła się od pół wieku? Ależ nie. Ta się zmieniła. Niestety na gorsze. Nie mówię tu o edukacji informatyków-naukowców na wyższych uczelniach, choć i z tą bywa różnie. Mówię o edukacji techników i inżynierów softwareowych. Wydany pięćdziesiąt lat temu podręcznik języka programowania Algol 60 (kto dziś pamięta tej język?) miał niecałe sto stron, zawierał pełny i precyzyjny opis składni i przyzwoicie opisaną semantykę (znaczenie) programów. Podobne cechy miał wydany nieco później podręcznik Pascala. Dzisiejsze podręczniki języków takich jak np. Delphi, HTML czy nawet Pyton (piszę „nawet” bo to ambitny język) dalekie są od tej precyzji i systematyki, zawierają natomiast po tysiąc i więcej stron, przez które nie sposób, ale też i nie warto, się przebijać. O definicji składni w ogóle nie ma mowy, trzeba się jej domyślać z przykładów, a z semantyką jest jeszcze gorzej. Z tych podręczników niewiele można się nauczyć, więc mnożą się fora użytkowników odpowiadających sobie wzajemnie na pytania typu „Hej, może ktoś wie jak…”. Z podręcznikami aplikacji nie jest lepiej. Wielu użytkowników woli poeksperymentować i popytać znajomych, bo podręcznik jest nieczytelny, niepełny i wewnętrznie sprzeczny. Czy ktoś potrafi sobie wyobrazić edukację chirurgów przy pomocy podręczników typu „Chirurgia urazowa w 24 łatwych lekcjach” albo „Kardiochirurgia w weekend”? Czy ktoś jest w stanie pomyśleć o internetowym forum chirurgów, na którym pojawiają się pytania w rodzaju „Hej, czy ktoś wie jak zatrzymać krwotok? Pacjent okropnie mi krwawi.” (Ten wątek rozwijam na stronie Komputer dla inteligentnych)

Czy więc informatyka ponosi same klęski? Ależ nie. Wręcz przeciwnie. Mimo tego wszystkiego o czym napisałem informatyka zmienia świat. W XX wieku dotyczyło to gównie nauki, techniki i gospodarki, w XXI zaczęła zmieniać społeczności. Rosnący w wykładniczym tempie dostęp do wiedzy i informacji nie zna już granic pomiędzy państwami i systemami politycznymi. Podobnie nie zna tych granic tworzenie się nowych społeczności jednoczących się wokół forów typu Facebook, czy Twitter. Dziś też każdy może stać się globalnym wydawcą rozpowszechniającym własne czasopisma, książki, utwory muzyczne czy filmy. Tych zjawisk jeszcze do niedawna nie byliśmy w stanie przewidzieć, jak dziś nie jesteśmy w stanie przewidzieć, co będzie za pięć, dziesięć, czy dwadzieścia lat. Pewne jest jednak, że ta zmiana będzie się dokonywać coraz szybciej i że informatycy — choć nie jedynie oni — będą za nią odpowiedzialni.

Komputerowa edycja dokumentów

Ocena użytkowników: 5 / 5

Star ActiveStar ActiveStar ActiveStar ActiveStar Active

W firmie, która ma ambicję dbałości o kompleksową jakość (por. Doktryna jakości), a więc o jakość wszystkiego co jest w niej tworzone, należy zwracać uwagę również na prawidła tworzenia dokumentów. Jakość dokumentu oceniamy zwykle pod kątem sześciu jego cech:

  1. treść — prawdziwe, fałszywe, ciekawe, nieciekawe,...
  2. styl — logiczne następstwo myśli, jasność i barwność przekazu,,,,
  3. poprawność językowa — gramatyka, ortografia, interpunkcja,...
  4. stosowność ― np. nie jest stosownym rozpoczynanie listu od „Dzień dobry!”,
  5. edycja — układ i podział treści na rozdziały, podrozdziały, akapity, listy, nagłówki, przypisy ...
  6. typografia — rozkład tekstu na stronie, marginesy, wielkość i krój czcionek, odstępy pomiędzy wierszami i akapitami, wcięcia, wyróżnienia, ...

Często zapomina się, że pod względem typograficznym dokument też może być napisany profesjonalnie, lub nie. Szkolna nauka tworzenia dokumentów ogranicza się z reguły do treści, stylu i poprawności językowej, a i w tym zakresie jest więcej niż ułomna. Powszechnie spotyka się więc dokumenty, których autorzy wykazują brak wiedzy na takie tematy jak układ akapitów, odstępów, wcięć, wyróżnień, czy też typograficznych (tak!) prawideł użycia znaków interpunkcyjnych. Takie dokumenty są trudne w czytaniu, ich układ graficzny nie odzwierciedla bowiem logicznego układu zawartych w nich treści.

W epoce przed narodzeniem się rzemiosła i sztuki Johanna Gutenberga, każdy autor dokumentu tworzył też jego postać graficzną. Wraz z powstaniem techniki  drukarskiej zadanie to przejęli drukarze i wydawcy. Dziś, wobec pojawienia się komputerowych edytorów tekstów, autorzy stają się ponownie odpowiedzialni za to, jak wygląda ich dokument.

Nieprofesjonalnie złożony tekst, jeżeli został napisany ręcznie lub na maszynie do pisania, razi znacznie mniej niż tekst pochodzący z komputerowej drukarki. Ten ostatni bowiem pod względem poligraficznym jest często nieodróżnialny od materiału wychodzącego spod ręki profesjonalnego drukarza. Czytelnik oczekuje więc podświadomie, że układ graficzny tekstu będzie równie profesjonalny.

Spotykam się niekiedy z opinią, że układ typograficzny dokumentu jest mało ważny, że ważna jest jedynie jego merytoryczna treść. Treść jest oczywiście bardzo ważna, ale to właśnie od układu graficznego zależy, czy ta ważna treść zostanie przez czytelnika przyswojona i zapamiętana. Wszyscy zdajemy sobie sprawę, jak ważną rolę w języku mówiony odgrywa intonacja. Wypowiedź bez zróżnicowanej intonacji ― wszystkie słowa na jednym diapazonie ― jest nużąca i przez to bardzo słabo przyswajalna. W języku pisanym rolę intonacji przejmuje na siebie forma graficzna tekstu. To ona właśnie pozwala czytelnikowi na pierwszy rzut ona zrozumieć strukturę wypowiedzi: podział na treściowo jednolite akapity, listy, tabelki, tytuły rozdziałów i podrozdziałów.

Mój podręcznik edycji dokumentów elektronicznych zawiera wprowadzenie w podstawowe zasady tworzenia typograficznie poprawnych dokumentów. W zasadzie daje on czytelnikowi dość ogólną wiedzę, którą można wykorzystać przy posługiwaniu się dowolnym edytorem tekstu. W podręczniku odwołuję się jednak do jednego wybranego edytora, którym jest MS Word 2007 wzbogacony o pewne elementy (style, szablony, skróty, makra i autoteksty) stworzone na użytek firmy A.Blikle. Tę wersję edytora określam jako b-Word. Aby dostosować fabryczny Word do standardów b-Word’a należy wykonać kilka prostych operacji, które są opisane w podręczniku.

Na koniec kilka uwag o korzystaniu z mojego podręcznika. Jak już pisałem, w swojej wersji pierwotnej został on opracowany dla edytora Word w wersji 2007. Większość podanych w nim informacji technicznych (np. związanych z nazwami i działaniem poszczególnych funkcjonalności, rozmieszczeniem ikon na paskach narzędziowych itp.) pozostaje aktualna dla nowszych wersji edytora, jednakże część będzie wymagała aktualizacji. Ponieważ nie chcę już zajmować się tymi aktualizacjami sam, wyrażam zgodę, aby dokonywali ich moi czytelnicy. Będę jedynie wdzięczny za umieszczenie na stronie tytułowej pod moim nazwiskiem dopisku „Aktualizacja do Word w wersji … dokonana przez … Z tymi zastrzeżeniami podręcznik można modyfikować i rozpowszechniać. Będę też wdzięczny za nadsyłanie do mnie zmodyfikowanych wersji, a także wszelkich uwag o podręczniku.

Mimo, że podręcznik dotyczy Worda w wersji 2007 jest zapisany w formacie 1997, a więc z rozszerzeniem "doc", a nie "docx" lub "docm". Tego wyboru dokonałem świadomie, gdyż mój podręcznik zawiera makra, a obsługa makr w dokumentach formaty 2007 jest zawodna i wymaga włączenia specjalnych opcji, natomiast zarówno Word 2007, jak i Word zawarty w MS Office 2010, znakomicie radzą sobie z dokumentami "doc". Dlatego też większość moich dokumentów zapisuję w tym właśnie formacie..

A teraz zapraszam do pobrania mojego podręcznika.

Geniusze i idioci

Ocena użytkowników: 0 / 5

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive

Od kiedy zacząłem zajmować się informatyką, co nastąpiło z początkiem lat 1960., miałem poczucie, że o informatyce można mówić w sposób zrozumiały. Zawsze też byłem przeciwny takim kwalifikacjom jak „komputerowy geniusz” — na określenie ludzi, którzy nie potrafią mówić o informatyce w sposób jasny, lub też „komputerowy idiota” — odnoszący się do ludzi, którzy komputerowych geniuszy nie rozumieją.

Czytaj więcej...

Podręcznik inaczej

Ocena użytkowników: 0 / 5

Star InactiveStar InactiveStar InactiveStar InactiveStar Inactive

Wyobraź sobie, drogi czytelniku, że po zakupieniu najaktualniejszej wersji aplikacji Abece, wyprodukowanej przez firmę aBECE zasiadasz do czytania dostarczonego ci wraz z aplikacją podręcznika. Zasiadasz z poczuciem bezmiaru twojej indolencji, a jeżeli przekroczyłeś już czterdziesty rok życia, to też z poczuciem braku wszelkich szans na zmianę tej sytuacji. Nie raz wszak widziałeś dziecko sąsiada, które poruszało się myszą po ekranie z szybkością światła. Teraz jednak trzymasz w ręku podręcznik, który pozwoli ci odzyskać wiarę w siebie.

Dekadencki sposób myślenia autorów podręczników nauk ścisłych nie pozwala im do dziś na oderwanie się od utartego schematu, wg. którego najpierw dostarcza się wiedzę podstawową, a później techniczną. Na przykład, tradycyjny podręcznik kierowania samochodem napisany dla osób, które nie tylko nigdy nie widziały samochodu, ale też nie wiedzą czym jest droga, skrzyżowanie i rondo, rozpoczynałby się od wyjaśnienia, co to jest samochód i do czego służy. Następnie wyjaśniałby zasady przemieszczania się po drogach, dalej zasady kierowania samochodem, wreszcie opisywałby podstawowe mechanizmy samochodu i ich rolę. Nic mylniejszego nad taki sposób myślenia.

Autorzy podręcznika systemu Abece wyszli ze słusznego założenia, że zaczynać należy od początku oraz od rzeczy prostych. A od czego zaczyna użytkownik samochodu, który zamierza skorzystać ze swojego pojazdu? Oczywiście od otwarcia lewych przednich drzwi. Pierwszy rozdział podręcznika o numerze 1.1.1 nosi więc tytuł „Szybki Start ― otwieranie lewych przednich drzwi” i zawiera skróconą procedurę postępowania składającą się z dwudziestu siedmiu punktów, która zaczyna się mniej więcej w taki oto sposób:

  1. Upewnij się, że stoisz na przeciwko lewych drzwi twojego samochodu. Uwaga: w Anglii i kilku innych krajach (lista w Aneksie C) będziesz się upewniał, że stoisz na przeciwko prawych przednich drzwi. Jeżeli nie wiesz w jakim kraju się znajdujesz, zadzwoń do najbliższego przedstawiciela firmy aBECE.
  2. Ujmij kluczyk w prawą rękę tak, aby płaszczyzna jego brzeszczota (więcej informacji na temat brzeszczota znajdziesz w rozdziale 7.2.5) pokrywała się z płaszczyzną dziurki zamka (więcej informacji na temat dziurki zamka znajdziesz w rozdziale 12.3.6).
  3. Wykonaj płynny wsuwruch kluczykiem i upewnij się, że wsunąłeś go w dziurkę zamka.
  4. Następnie ...

Dla twojej wygody autorzy podręcznika umieszczają na następnej stronie równie dokładną procedurę otwierania prawych przednich drzwi (nadal dla samochodów przeznaczonych dla ruchu prawostronnego; ruchowi lewostronnemu poświecono Aneks E) oraz odsyłają cię do dalszych rozdziałów podręcznika, gdybyś w sprawie otwierania lewych przednich drzwi zamierzał osiągnąć mistrzostwo. Dzięki temu stylowi, podręcznik, który mógłby zawierać sto stron, zawiera ich tysiąc (wszystko w cenie systemu!). Zważ, że dzięki temu od firmy aBECE otrzymujesz za swoje pieniądze ponad dziesięć razy więcej słów wiedzy, niż byś ich miał przy tradycyjnym potraktowaniu tematu. 

Twój pierwszy kontakt z systemem

Oto więc przebrnąłeś przez pierwsze sto stron podręcznika dzięki czemu upewniłeś się w przekonaniu, że jesteś beznadziejnym idiotą, człowiekiem, który nigdy nie osiągnie stopnia rozwoju dziecka sąsiada. aBECE daje Ci jednak niepowtarzalną szansę otarcia się o świat XXI wieku. Postanawiasz zatem podjąć próbę uruchomienia komputera. Oto jak ona wygląda w przełożeniu na nasz samochodowy przykład.

Zgodnie z instrukcją, podchodzisz do samochodu z lewej strony, przekonujesz się jednak, że nie ma tam niczego, co przypominałoby lewe przednie drzwi. Ponadto twój kluczyk jest okrągły, nie wiesz więc jak postąpić w sprawie płaszczyzny jego brzeszczota. Sięgasz zatem do Rozdziału 7.2.5, z którego dowiadujesz się, że „...brzeszczot to płaski wydłużony kawałek metalu (więcej informacji na temat metalu znajduje się w rozdziale 15.1.8) stosowany przez konstruktorów wielu urządzeń technicznych; brzeszczot klucza ― patrz rozdział 1.1.1”.

Bogatszy o tę wiedzę, szukasz dalej, by na ostatniej stronie podręcznika znaleźć informację, że firma aBECE uruchomiła dla twojej wygody specjalny telefoniczny serwis pomocy. Popularność tego serwisu sprawia, że dodzwaniasz się do niego dopiero wieczorem. Przez inżyniera specjalistę zostajesz uprzejmie poinformowany, że ponieważ karoserię do twojego samochodu (produkcji firmy aBECE) instalował na podwoziu niezależny diler (przy okazji wzbogacasz swój angielski), to do niego należy się zwracać z wszelkimi reklamacjami. Uzyskujesz też dodatkową informację, że w wersji samochodu, którą posiadasz, drzwi nie zostały w ogóle zainstalowane, można je jednak „ściągnąć z Intersiatki” jako tzw. „uzupełnienie eksploatacyjne” (dilerzy niesprawiedliwie nazywają je „łatą”). To jednak właśnie zrobi dla ciebie twój diler. Inżynier uzupełnia swoją poradę dodając, że radzi ci też apgrejdować cztery koła, gdyż w twojej wersji użyto drewnianych opon osadzonych na gumowych felgach. W najnowszej wersji felgi wykonano z płyty gipsowej, a opony zastąpiono żelaznymi obręczami.

Uprzejmy diler, do którego dzwonisz dnia następnego, informuje cię, że twój interfejs może być niekompatybilny z kontrolerem busa, ponieważ jednak prowajder zabezpieczył linki do łebów (przed czym zabezpieczył? ― pewno przed pożarem), to być może twoje drzwi da się zmapować na karoserię, a koła zasejfować na podwozie. Pocieszony w ten sposób, oddajesz samochód na tydzień do warsztatu, a gdy go odbierasz przekonujesz się, że zamontowano Ci prawe drzwi zamiast lewych (choć z lewej strony), ponieważ jednak przy tym montażu kierownica została przeniesiona za tylne siedzenie, a światła stopu na deskę rozdzielczą, przeprowadzoną korektę twojego zamówienia uznajesz za uzasadnioną i logiczną.

Podróż powrotna gratis

Skoro już odebrałeś samochód z warsztatu, postanawiasz odbyć pierwszą podróż. Nadarza się okazja, bo firma wysyła cię właśnie do ważnego kontrahenta na drugi koniec kraju. Podróż masz urozmaiconą odkrywaniem nie znanych ci jeszcze możliwości twojego samochodu. Na przykład, gdy skręcasz w lewo, włącza się automatycznie prawy kierunkowskaz, a gdy hamujesz ― gasną światła. Te zjawiska świadczą, że twój samochód jest juzerfrendli (ponownie wzbogacasz swój angielski) oraz zorientowany na użytkownika (tym razem wzbogacasz polszczyznę). Prawdziwa niespodzianka czeka cię jednak, gdy z daleka widzisz już cel twojej podróży. Samochód zatrzymuje się dość gwałtownie na środku drogi, a na przedniej szybie ukazuje się następujący komunikat: „Błąd nr 629; nastąpiło przekroczenie zakresu. Jeżeli ten błąd będzie się powtarzał, zadzwoń do dilera”. Przekonujesz się jednocześnie, że choć silnik nadal pracuje, samochód nie reaguje już na manewry biegami i kierownicą. Masz jednak do dyspozycji guzik OK, który pojawił się na szybie wraz z komunikatem. Naciskasz go więc i w jednej chwili, bez jakiegokolwiek wysiłku z twojej strony, bez żadnych dodatkowych kosztów, ani zużycia paliwa, znajdujesz się w miejscu, z którego wyruszyłeś w podróż.

Przeżyłeś piękną przygodę, a teraz dzięki pomysłowości inżynierów firmy aBECE, masz szansę przeżyć ją jeszcze raz.

Strona 1 z 2