SŁOWNICZEK TERMINÓW INFORMATYCZNYCH

Niniejszy słowniczek stanowi skondensowane kompendium nowoczesnej wiedzy informatycznej.
Przytoczone definicje - poza cytowanymi wypowiedziami - zostały sformułowane przez Autora.

PODSTAWOWE TERMINY
  • COMPUTER SCIENCE (CS) - INFORMATYKA TEORETYCZNA
    nauka o metodach i technikach komputerowych
    theory of computation and the design of computational systems
    (teoria hardware'u,firmware, OS, sterowniki, języki, kompilatory, interpretery, edytory, bazy danych... oprogramowanie pośredniczące (middleware), narzędziowe)
  • COMPUTING - termin interpretowany jako "Computer Science" (w USA) albo "Informatics"
    zastosowania komputerów, w tym tworzenie programów aplikacyjnych
  • INFORMATION TECHNOLOGY (IT) - technologia informacyjna
  • INFORMATICS-INFORMATYKA - termin używany głównie we Francji i w Polsce. W USA odpowiednikiem wydaje się być Information Management (IM) = (w tym MIS - Management Information Systems)
    głównie dotyczy zastosowań komputerów (analiza, projektowanie, oprogramowanie aplikacyjne + metodologia, narzedzia)
  • ICT (Information and communication technology) - TELEINFORMATYKA technologia informacyjna i komunikacyjna
    najobszerniejszy termin obejmujący wszystkie poprzednie (metody gromadzenia i przetwarzania informacji, komputery i telekomunikacja)



Słowniczek zawiera terminy w porządku alfabetycznym.
Lepszej orientacji w zawartości słowniczka służą poniższe indeksy (tematyczny i alfabetyczny)

SKOROWIDZ TEMATYCZNY

  1.sieci komputerowe i internet

  
architektura klient-serwer       
lokalna sieć LAN       
rozległa sieć WAN      
firewall  
  
intranet    
extranet    
webfarming   
sieci internetowe    
portal    
portlet    
aplet    
serwlet    
  
marklet    
middleware    

   2.Aplikacje (zastosowania)

  
system zarządzania relacjami z klientem CRM    
system mierników oceny biznesu BBSC
   
call center    
systemy EIS   
systemy oparte na sztucznej inteligencji    

  3.Technologia przetwarzania

  
Linux    
Unix    
przetwarzanie transakcyjne OLTP    
hurtownia danych   
system hurtowni
   danych
   
wirtualna hurtownia danych    
metadane    
datamarty    
STAR SCHEMA
      
przetwarzanie analityczne OLAP    
data drilling    
data mining
   
system zarządzania bazą danych SZBD    
baza danych    
plik danych    
big data    
baza wiedzy
   
zrównoleglone przetwarzanie danych    
drążenie/penetracja/eksploracja danych (data-drilling)    
  
inteligentna eksploracja danych (data mining)
   
systemy neuronowe    
testy wydajnościowe - TPC BENCHMARK    




SKOROWIDZ ALFABETYCZNY

aplet
architektura klient-serwer
baza danych
baza wiedzy
big data
call center
CRM - system zarządzania relacjami z klientem
datamarty
data mining - inteligentna eksploracja danych
drążenie/penetracja/eksploracja danych (data-drilling)
extranet
firewall
hurtownia danych
hurtownia danych wirtualna
inteligentna eksploracja danych - data mining
internetowe sieci
intranet
LAN lokalna sieć
Linux
marklet
metadane
middleware
OLAP
OLTP
plik danych
portal
przetwarzanie analityczne OLAP
przetwarzanie transakcyjne OLTP
schemat gwiaździsty - STAR SCHEMA
sieci internetowe
serwlet
sieć lokalna LAN
sieć rozległa WAN
STAR SCHEMA
system zarządzania bazą danych SZBD
system zarządzania relacjami z klientem CRM systemy EIS
systemy neuronowe
system mierników oceny biznesu BBSC
systemy oparte na sztucznej inteligencji
testy wydajnościowe - TPC BENCHMARK
Unix
WAN - rozległa sieć
webfarming
wirtualna hurtownia danych
zrównoleglone przetwarzanie danych



APLET

Apletami (applets) są miniprogramy umieszczane na stronach internetowych i wykonywane przez przeglądarkę po stronie klienta (a nie na serwerze).


Powrót do skorowidza       tematycznego        alfabetycznego

ARCHITEKTURA KLIENT-SERWER

Architektura operacyjna sieci komputerowej wprowadzająca podział zadań pomiędzy serwerami i klientami. Klienci żądają usług od serwerów i te je udostępniają w zakresie oprogramowania, procesów i danych. Serwer posiada funkcje nadrzędne w stosunku do klientów, w tym sensie że zarządza swoimi zasobami i obsługuje klientów wg własnych reguł. Przykładami serwerów moga być serwery baz danych (udostępniają software systemu zarządzania bazą danych, zaś programy aplikacyjne i dane moga znajdować się u "klientów" czyli na stacjach roboczych ), i serwery OLTP (klienci żądają obsługi transakcji, serwer przetwarza je i zwraca rezultaty do procesów klientowskich). Złożone aplikacje obsługiwane są w środowisku wieloserwerowym i podział zadań jest bardziej skomplikowany, zaś architektura taka nazywa się wielowarstwową (multitier architecture). Przykładem architektury trójwarstwowej jest użycie serwera aplikacyjnego, pracującego pomiędzy klientami a serwerem (serwerami) baz danych. Serwer aplikacyjny jest odpowiedzialny za realizację żądań klientów i to on generuje wywołania do programów odpowiednich dla danego DBMS. Dzięki temu konfiguracja komputera klienckiego ulega uproszczeniu w stosunku do klasycznej architektury dwuwarstwowej. Niezależnie od tego z jakiego (Oracle, Informix...) DBMS klient chce korzystać, jego żądania są formułowane w sposób jednolity i dopiero serwer aplikacyjny dopasowywuje je do specyfiki konkretnego DBMS.

Historycznie rzecz biorąc, termin “architektura klient-serwer” powstał jako przeciwieństwo do klasycznej technologii przetwarzania na mainframe’ach (“architektura host-terminal”, która charakteryzowała się tym, że zadania wykonywane były centralnie na jednym -z reguły bardzo wydajnym - komputerze zwanym “host”, do którego podłączano wiele terminali. Przewiduje się, że mainframe’y ostatniej generacji (z mikroprocesorami CMOS) same będą składnikami architektury klient-serwer, pełniąc funkcję serwera typu “back-end” w stosunku do komputerów mid-range, pełniących funkcje serwerów typu “front-end”.


Powrót do skorowidza       tematycznego       alfabetycznego

BAZA DANYCH

Dane utrzymywane (np.w zakresie relacji) przez SZBD.


Powrót do skorowidza       tematycznego        alfabetycznego

BAZA WIEDZY - zestaw teorematów-twierdzeń (theorems), zasad i metod heurystycznych, tworzących ekspertyzę do rozwiązywania problemów w określonej dziedzinie . Baza ta może byc reprezentowana przez reguły wnioskowania (production rules), frames (szkieletowe schematy), sieci semantyczne i inne metody .

Powrót do skorowidza       tematycznego        alfabetycznego

BIG DATA

Big data [brak szerzej stosowanego polskiego terminu - proponowano: gigadane, wielodane] termin ten ma zastosowanie wszędzie tam, gdzie dużej, zmiennej i róznorodnej ilości danych towarzyszy potrzeba zdobywania nowej wiedzy, co wymaga nowych form przetwarzania w celu wspomagania podejmowania decyzji, odkrywania nowych zjawisk lub optymalizacji procesów.

Powrót do skorowidza       tematycznego        alfabetycznego

CALL CENTER, CONTACT CENTER

Systemy telefonicznej i internetowej sprzedaży produktów i usług.

Klasyczny system “call center” realizuje obsługę klienta poprzez linie telefoniczne, natomiast “contact center” obejmuje wszystkie możliwe połączenia: telefon, internetowy dostęp (poprzez strony internetowe i email, wykorzystując komputery i telefony komórkowe), faks itp.


Powrót do skorowidza       tematycznego        alfabetycznego

DATA-DRILLING - penetracja, eksploracja danych (dosłownie “drążenie danych”)

Technika obsługi wymiarów obejmująca przechodzenie poprzez poziomy hierarchiczne agregacji danych, a więc operacje uszczegóławiające (zwane też analizą wgłębną, drążeniem w dół czyli “drill-down”), operacje agregujące (drążenie w górę czyli “drill up”), analizę wieloprzekrojową (“slicing & dicing”) itp.

Powrót do skorowidza         tematycznego    alfabetycznego

DATAMARTY

Są to podhurtownie wydzielone z globalnej hurtowni danych (zwane “dependent datamarts”) albo pseudohurtownie będące wyciągami z operacyjnych baz danych (zwane "stovepipe" lub “independent datamarts”) nie stowarzyszone z metadanymi lecz wykorzystywane przez narzędzia OLAPowe. Datamarts ukierunkowane są biznesowo na obsługę wydzielonych grup użytkowników. Nadają się do obsługi lokalnych potrzeb informacyjnych (wyrażanych zwykle w gotowych agregatach danych oraz wskaźnikach) i dają użytkownikom lepszy komfort pracy (poruszanie się po znanych merytorycznie zasobach informacyjnych, krótszy czas odpowiedzi itp.). Stosuje się je w celu zmniejszenia nakładów (mniejsze komputery, prostsza i szybsza budowa) lub minimalizacji ruchu danych po sieci (wtedy noszą charakter zdecentralizowany czyli ulokowane są na serwerach departamentowych). W stosunku do hurtowni danych datamarts powinny być więc prostsze pod względem modelu danych oraz posiadać mniejszy wolumen danych, zwykle sięgający kilkunastu - czasem kilkudziesięciu GB. Dane pochodzą zwykle tylko z kilku systemów, zaś liczba użytkowników nie przekracza 100. Niezależne datamarty stosuje się niekiedy w początkowym etapie budowy hurtowni danych w celu wypróbowania na nich narzędzi OLAPowych lub też do przechowywania wyników zapytań ad-hoc albo złożonych przekroi informacyjnych (cross-subject analysis).Większość specjalistów uważa, iż stosowanie wielu niezależnych datamartów może doprowadzić do chaosu informacyjnego ("wiele prawd"), jest w sumie kosztowne i utrudnia budowę globalnych hurtowni danych.

Niekiedy (np.w terminologii SAS) używane jest pojęcie INFORMATION MARTS do ujęcia informacji w postaci graficznej lub w formie raportów generowanych na podstawie danych, zapytań, plików tekstowych lub nawet wykonywalnych aplikacji.


Powrót do skorowidza       tematycznego       alfabetycznego

DATA-MINING “inteligentna eksploracja danych” mająca na celu pozyskiwanie wiedzy ukrytej w dużej ilości danych (dosłownie “kopanie danych”).

Termin ten utożsamiany jest czasem z “data drilling”. W terminologii firmy SAS “data-mining” oznacza procesy selekcji, eksploracji i modelowania, wykonane na dużej ilości danych, prowadzące do odkrycia dotychczas nieznanych wzorców (patterns) biznesowych. Sean Kelly - autorytet w zakresie hurtowni danych, określa “data mining” jako nietrywialną ekstrakcję poprzednio nieznanej wiedzy z danych, przechowywanych w hurtowni, i oznacza to skrótem KDD (Knowledge Discovery in Databases). Wreszcie, wg Johna Mangolda, prezydenta firmy Angoss ( pakiety KnowledgeSeeker i KnowledgeStudio) “data mining” można zdefiniować jako proces wykrywania korelacji i trendów w danych oraz dostarczania wiedzy, za pomocą technik statystycznych, matematycznych i rozpoznawania wzorców. Wg interpretacji Gartner Group “Data mining jest procesem odkrywania nowych korelacji, wzorców i trendów na podstawie dużych wolumenów danych przechowywanych w repozytoriach, wykorzystując technologie rozpoznawania wzorców, jak również techniki statystyczne i matematyczne”. Wg firmy IBM data mining jest procesem wydobywania z dużych baz danych nie znanej do tej pory informacji i następnie używanie jej do podejmowania istotnych decyzji binesowych.

StatSoft definiuje Data Mining (używając terminu “zgłębianie danych”) jako proces analityczny, przeznaczony do eksploracji dużych zasobów danych w poszukiwaniu regularnych wzorców oraz systematycznych współzależności pomiędzy zmiennymi, a następnie do oceny wyników poprzez zastosowanie wykrytych wzorców do nowych podzbiorów danych. Autorzy tej definicji zaznaczają, iż w data mining akceptowane są metody “czarnej skrzynki” i jest ono bardziej ukierunkowane na praktyczne zastosowania niż na istotę branego pod uwagę zjawiska. Data mining w biznesie jest wykorzystywane w celu odkrywania struktur wiedzy wspomagającej proces podejmowania decyzji w warunkach ograniczonej pewności. Uogólniając powyższe definicje, można powiedzieć, iż data mining jest technologią pozyskiwania wiedzy poprzez stosowanie modeli sieci neuronowych (MLP-MultiLayer Perceptrons, PNN - Probabilistic Neural Networks, RBF-Radial Basis Function, Kohonena itp.) i algorytmów genetycznych, drzew decyzyjnych (np. Gini, ID3, CART, CHAID), technik statystycznych (np.regresji liniowych), modeli fraktalnych, algorytmów segmentacji (asocjacji, sekwencji, najbliższego sąsiedztwa) itp. Data mining korzysta więc z wielu dziedzin wiedzy, nie wyłączając teorii chaosu.    Z formalnego punktu widzenia technologia “data-mining” zmierza do wyprodukowania takich typów informacji jak klasy, klastry (clusters, categories) jako podzbiory klas dla niepredefiniowanego zakresu, asocjacje (powiązanie zdarzeń), sekwencje zdarzeń, zbliżone sekwencje zdarzeń, prognozy itp.

W bankowości “data-mining” stosowane jest np. do szacowania ryzyka w ocenie wniosków kredytowych, wykrywania oszustw przy posługiwaniu się kradzionymi lub podrobionymi kartami płatniczymi, do segmentacji klientów, prognozowania ryzyka rynkowego itp..W ubezpieczeniach używane jest do wykrywania oszustw roszczeniowych.

Przetwarzanie data-mining odbywa się na pełnym wolumenie - oczyszczonych z błędów- danych lub na reprezentatywnych próbkach. Segmentacja danych stosowana jest często jako początkowy etap, pozwalający na racjonalizację dalszego przetwarzania. Na przykład, w przypadku segmentacji klientów na podstawie danych hurtowni marketingowo-klientowskiej, stosujemy "direct-mailing" tylko w stosunku do wybranego segmentu klientów, który spełnia kryteria ukierunkowanego marketingu. Dzięki temu radykalnie skraca się czas przetwarzania oraz redukuje koszty korespondencji pocztowej.


Powrót do skorowidza       tematycznego        alfabetycznego

EIS

Skrót ten ma “swoje lata” i jest w związku z tym rozmaicie interpretowany w publikacjach. W szerokiej interpretacji oznacza technologię bezpośredniej i interaktywnej obsługi kierownictwa w zakresie informacji składowanych poza systemami obsługi operacyjnej. W wąskiej interpretacji oznacza technologię obsługi zapytań i prezentacji informacji dla kadry zarządzającej.. Wprowadzono go zapewne w celu odróżnienia od tradycyjnych systemów MIS (Management Information System) opartych na wykorzystaniu transakcyjnych baz danych. Pierwsze aplikacje opatrywane etykietą EIS uruchamiane były przez firmy IRI (pakiet Express), Comshare i Pilot (Command Center). Termin EIS integralnie związany jest z technologią hurtowni danych i wielowymiarowej analizy danych. EIS zwykle występuje w powiązaniu z DSS (Decision Support System/Solution - SWD Systemy Wspomagania Decyzji). W wąskiej interpretacji DSS obejmuje metody modelowania i symulacji procesów decyzyjnych, w tym tworzenie scenariuszy zdarzeń typu “what if”.

Interpretacja skrótu EIS jako “Executive Information System” - pochodzi jeszcze z lat 80-tych i oznacza system dostarczania informacji dla kierownictwa,czasem uzupełniany przez moduły typu DSS .

Dwie poniższe interpretacje są stosunkowo mało znane, lecz posiadają swoją wagę gatunkową w aspekcie przyszłościowym.

Enterprise(-wide) Information System - oznacza system informacyjny - niekoniecznie przeznaczony dla kierownictwa - służący do dostarczania informacji w skali przedsiębiorstwa, zwykle w postaci skonsolidowanych danych zbiorczych, m.i. oparty na technologii hurtowni danych i OLAP.

Enterprise-wide Intelligent System - oznacza stosowanie systemów inteligentnych (ekspertowych, neuronowych) w skali firmy.


Powrót do skorowidza       tematycznego        alfabetycznego

EXTRANET

Zespół wspólpracujących internetowo organizacji, połączonych ze sobą np. wspólnymi interesami biznesowymi. Forma intranetu dopuszczająca dostęp zewnętrznych użytkowników.


Powrót do skorowidza       tematycznego        alfabetycznego

FIREWALL (zapora ogniowa, ściana zaporowa)

Centralny punkt kontroli dostępu do sieci, mający wgląd do routerów, serwerów poczty elektronicznej, serwerów zatwierdzających (authentication/ proxy), hostów, bram (gateways) etc.. Rozwiązanie to jest szczególnie stotne w przypadku stosowania protokołów (np. IP) zawierajacych adresy w pakietach rozsyłanych po sieci, szczególnym obiektem “ataku" jest tutaj adres komputera głównego zwanego hostem, aby potem poprzez komendy transferu plików uzyskać dowolne informacje. Filtracja dostępu do sieci powinna wyłowić intruzów wysyłających komunikaty "udające" normalnych użytkowników Do podstawowych zadań ścian zaporowych należy wykrywanie nieuprawnionych użytkowników sieci, zaś dla uprawnionych generowanie tokenów hasłowych ważnych tylko na przeciąg jednej sesji. Zapory ogniowe stosowane są zwykle na styku wewnętrznej sieci internetowej (intranet) firmy i sieci zewnętrznej. Stanowią wówczas zwykle część dedykowanego serwera. Rozróżnia się kilka (filtrowanie pakietów -packet filter, bramy aplikacji -application gateway, bramy połączeń -circuit-level gateway, serwery upoważniające do dostępu -proxy serwer. typów zapór, w tym dwie podstawowe: filtrowanie pakietów i proxy serwer. W pierwszym przypadku pakiety kontrolowane są na zgodność z regułami (np. dopuszczalne zakresy adresów IP przychodzących i wychodzących, numery portów serwera, protokoły sieciowe), zaś w drugim ukrywane są adresy sieciowe i pakiety sprawdzane są nie tylko pod kątem adresów IP (może być zabroniony dostęp do określonych stron www) lecz również specyficznych funkcji aplikacji (np.dozwolone może być pobieranie usług FTP lecz nie usuwanie plików). Serwery proxy mogą również ewidencjować ruch w sieci (w tym zrealizowane dostępy), aby np. wspomagać wykrywanie nielegalnych operacji.


Powrót do skorowidza       tematycznego        alfabetycznego

HURTOWNIA DANYCH (data warehouse)

Hurtownia danych jest to nietransakcyjna zintegrowana wewnętrznie baza danych przeznaczona do przechowywania informacji w długim horyzoncie czasowym oraz w wielowymiarowych układach analitycznych i ukierunkowana na wyszukiwanie informacji bezpośrednio przez końcowych uzytkowników. Rozróżnia się scentralizowane hurtownie globalne (jedna hurtownia globalna w skali firmy gromadząca wszystkie informacje niezbędne do potrzeb zarządzania). tematyczne hurtownie globalne (gromadzące informacje w skali firmy lecz wyselekcjonowane np. dla potrzeb pionu organizacyjnego) oraz datamarty ukierunkowane na obsługę specjalizowanych zespołów problemowych lub departamentów. W globalnych hurtowniach dane gromadzone są w skali firmy nie wg aplikacji operacyjnych (typu obsługa depozytów, kredytów...) lecz wg takich podmiotów (subjects) jak klient, produkt itp. zgrupowanych wg podobieństwa oraz w rozbudowanym układzie czasowym (informacje szczegółowe 2-3 lata, zagregowane – wiele lat) i agregacjach. W zintegrowanym rozwiązaniu globalne hurtownie korzystają z centralnego repozytorium metadanych. W datamartach dane gromadzone są wg kompetencji i zainteresowań zawodowych określonych grup użytkowników.

Technologia hurtowni danych posiada więc swoją specyfikę, a polega ona głównie na braku mechanizmów transakcyjnych oraz analityczności i wielowymiarowości danych. Bazy danych, używane w technologii hurtowni danych, ukierunkowane są na raportowanie i wyszukiwanie danych używając do tego celu zaawansowanej techniki indeksowania oraz posługując się predefiniowanymi wymiarami i agregatami danych. Utrzymywanie tych mechanizmów nie powoduje dużych komplikacji (poza koniecznością przeznaczenia na ten cel sporej przestrzeni dyskowej) i nie zakłóca procesu obsługi zapytań, gdyż bazy hurtowni aktualizowane są jedynie wsadowo (przebudowie ulegają wtedy indeksy oraz tworzone są agregaty danych). Z punktu widzenia użytkownika bazy są jedynie do odczytu z możliwością obliczania danych przekazywanych w odpowiedziach na zapytania, lecz nie przechowywanych w bazie.

Analityczność układu danych nie oznacza, że przechowuje ona informacje elementarne, lecz że umożliwia - za pomocą narzędzi OLAPowych - penetrowanie bazy danych na różnych poziomach analitycznych, używając np. techniki analizy wgłębnej “drill down” (np. rozpoczynając od wyniku ogółem w skali banku wg poszczególnych lat, następnie wewnątrz wybranego roku do poszczególnych oddziałów banku, wewnątrz oddziału do określonej klasy produktów bankowych itp.). Analityczne układy przebiegają więc poprzez wymiary (czasowe, geograficzne, grupy klientów, grupy produktów itp. Hurtownia danych posiada swoje specyficzne mechanizmy, wspierające wielowymiarową analizę i do nich należą wielowymiarowe procedury dostępu (rozpoznające hierarchię wymiarów) oraz metadane. Utrzymywanie wielowymiarowości stanowi najistotniejszą cechę technologiczną hurtowni danych, rozróżniającą hurtownię od klasycznych baz relacyjnych używanych w technologii OLTP oraz przejściowych baz ODS (Operating Data Store).

Użytkowanie hurtowni danych ukierunkowane jest na wspomaganie kierownictwa (poprzez tzw. DSS Decision Support System) i ma na celu odciążenie operacyjnych baz danych, przeznaczonych przede wszystkim do ladowej obsługi klienta. Oznacza to więc rozdzielenie sfery informacji wykonawczych od sfery informacji decyzyjnych. Hurtownie danych mogą być traktowane jako przedsięwzięcie integracyjne w skali organizacji, gdyż są skonsolidowaną “zbiornicą” danych zasilaną zwykle w trybie partiowym przez wiele baz danych oraz ze źródeł zewnętrznych.

Hurtownie danych stowarzyszone są zwykle z narzędziami do ich utrzymywania. Ponieważ dane nie mogą być magazynowane w nieskończoność niezbędne są również narzędzia do okresowego rozładowywania i aktualizacji magazynów. Aby dopasować zawartość hurtowni do potrzeb określonych grup uzytkowników i skrócić czas odpowiedzi (dzięki zmniejszonemu wolumenowi danych) często stosuje się lokalne zestawy danych (datamarts), wzrosnąć wtedy jednakże może maszynochłonność utrzymywania danych (konieczność replikacji danych z hurtowni ). Utrzymywanie hurtowni danych wymaga systematycznego wykonywania takich funkcji technologicznych jak ekstraktyzacja i transformacja danych z baz operacyjnych, ładowanie, aktualizacja inkrementalna itp. Zadania te realizowane są zazwyczaj za pomocą oprogramowania zwanego administratorem hurtowni danych (np.DataStage – Informix, OWB – Oracle, WA – SAS, Visual Warehouse - IBM).

Za twórcę koncepcji hurtowni danych uważany jest Bill Inmon współzałożyciel w 1991 r.firmy Prism Solutions specjalizującej się w oprogramowaniu narzędziowym hurtowni danych. W 1995 r. założył on firmę Pine Cone Systems, przeznaczoną do tworzenia innowacyjnego software’u do administrowania danymi w środowisku hurtowni danych, datamarts i DSS. Sformułował on takie, cechy hurtowni danych jak: zorientowanie na podmioty (np.produkty, klienci, itp.), uwzględnienie wymiaru czasu, nieulotność (zachowywanie informacji), zintegrowanie oraz ukierunkowanie środowiska użytkownika końcowego na zarządzanie (nie zaś na obsługę transakcyjną). Podstawy teorii wielowymiarowych baz zapoczątkowali w 1972 r. Jay Wurtz i Rick Karrash, wówczas studenci Sloan Management Scholl, a potem twórcy pakietu Express.


Powrót do skorowidza       tematycznego        alfabetycznego

INTRANET

Sieć komputerowa wewnątrz organizacji - przeznaczona dla jej pracowników i wykorzystująca technologię internetu (HTML, HTTP, Java, JavaBeans, JDBC, ActiveX, CGI) oraz zabezpieczona przed dostępem z zewnątrz przez pakiet zaporowy “firewall”. Intranet może pełnić rolę multimedialnej poczty elektronicznej, stanowić kanał realizacji zarządzania przepływem prac (WFM), być platformą współpracy (np.video-konferencje), zdalnego uruchamiania aplikacji z sieciowego komputera (thin computer) itp. W prostym przypadku technologia internetowa w intranecie sprowadza się do używania przeglądarki (web browser) i protokołu TCP/IP w wydzielonej sieci banku (nie połączonej z siecią światową), wyposażonej w wewnętrzny serwer intranetowy, na którym usadowione jest udostępnianie aplikacji (tzw. application dispatcher) oraz oprogramowanie konwersji raportów na format html.


Powrót do skorowidza       tematycznego        alfabetycznego

LINUX

Unixopodobny system operacyjny Linux, zainicjowany na początku lat 90-tych przez fińskiego studenta Linusa Torvaldsa (autora wersji 0.0.1.jądra systemu oraz koordynatora jego linii rozwojowej do dnia dzisiejszego). Rozwijany przez szeroką rzeszę woluntariuszy dzięki dostepnosci kodu źrodlowego. Szacuje się, iż Linux posiadał w 1998 roku 7-10 milionów użytkowników i osiągnął udział ponad 17% na serwerowym rynku systemów operacyjnych. Linux upowszechniany jest w ramach tzw. otwartej dystrybucji i GNU public licence (Linux jest rdzeniem bezpłatnego systemu operacyjnego GNU system upowszechnianego przez tę organizację). Może pracować na platformach Alpha, Intel, SPARC, Power PC (64bitowe procesory typu RISC, w które wyposażane są nowe wersje komputerów IBM AS/400). IBM zaprezentował pracę superkomputera złożonego z 17 serwerów Netfinity, pracujących pod systemem Red Hat Linux. System Linux działa również na serwerach S/390 równocześnie z systemem OS/390. Znana jest profesjonalna wersja systemu SuSE Linux przeznaczona dla serwerów IBM RS/6000. Firmy Netscape i Corel udzieliły oficjalnego poparcia temu systemowi. Oracle przewiduje pracę swoich produktów na tej platformie. Netscape udostępnił pod Linuxem wersję Navigatora wraz z programami do obsługi Internetu, a Corel rozpoczął prace nad przeniesieniem swoich pakietów graficznych i biurowych . Zwolennicy Linuxa zwracają uwagę na jego skalowalność oraz wydajność, upatrując w tym zagrożenie dla WindowsNT.

Linux uważany jest za system otwarty (nie tylko w sensie dostępności kodu źródłowego), gdyż obsługuje wszystkie otwarte protokoły sieciowe (jak również szereg firmowych) i jest też dostępny na większej liczbie platform sprzętowych niż Windows NT. W 2001 roku ukazała się wersja 2.4. obsługująca platformy wieloprocesorowe i dająca mozliwość adresowania do 64GB pamięci.


Powrót do skorowidza       tematycznego        alfabetycznego

LOKALNA SIEĆ (LAN)

Sieć komputerowa (składająca się zwykle z serwerów i stacji roboczych) pracująca lokalnie (zwykle na odległość kilkuset metrów na okablowaniu Ethernet) . Przykładem sieci lokalnej jest sieć komputerów PC pod Netware firmy Novell.


Powrót do skorowidza       tematycznego        alfabetycznego

MARKLET

jest to niewielki program (do 500 znaków) napisany w JavaScript majacy formę URL, dzięki czemu może być umieszczony (i uruchamiany) w takich folderach jak “Ulubione” lub “Bookmarks”). Pod względem funkcjonalnym marklety dzielą się na nawigacyjne (usprawniają nawigację po stronie), wyszukujące (przeszukują zasoby sieci bez wyświetlania pełnych okien wyszukiwarek), okienkowe (zmieniają wygląd okna przeglądarki) i projektowe (dla piszących skrypty i projektujących strony).


Powrót do skorowidza       tematycznego        alfabetycznego

MIDDLEWARE

Termin o szerokim znaczeniu. Oznacza oprogramowanie posredniczące działające pomiędzy różnymi platformami (np.cross plattform transaction messaging), bazami danych i protokołami sieciowymi, komputerami front-end i host, rozwiązaniami rozproszonego przetwarzania danych opartymi na różnych standardach np. CORBA i DCE , CORBA i Java itp.

Do tej kategorii zalicza się również oprogramowanie w zakresie bezpieczeństwa dostępu działające pomiędzy siecią i aplikacją (identyfikacja, autoryzacja, prawa dostępu,...) oraz serwery serwisu bibliotecznego (directory services) LDAP.

W architekturze klient-serwer termin ten służy do oznaczenia oprogramowania, które obsługuje potrzeby znajdujące się pomiędzy klientem i serwerem. Middleware obejmuje na przykład:software (ODBC, JDBC) dostępu do danych, zdalne wywołania RPC (Remote Procedure Call), monitory przetwarzania transakcji, oprogramowanie komunikatów ( MOM - Messaging Oriented Middleware), ORB (Object Request Broker), konwersji struktur danych pomiędzy różnymi bazami danych itp. W przypadku hurtowni danych oznacza zwykle oprogramowanie pośredniczące pomiędzy bazą danych hurtowni a użytkownikami końcowymi. Czasem kwalifikuje się do niego narzędzia kopiowania danych (select, edit, summarize, combine and load) z baz operacyjnych do hurtowni danych. Przykładami middleware jest oprogramowanie eLink firmy BEA , MQSeries... firmy IBM,produkty Entera (DCE-CORBA bridge) firmy Borland, produkty firmy Easysoft oraz QuickConnect firmy PeopleSoft.


Powrót do skorowidza       tematycznego        alfabetycznego

METADANE są danymi o danych, a więc są opisem danych, obejmując również opis środowiska (bibliotek, serwerów, źródeł pochodzenia..). Szeroko rozumiany opis danych obejmuje opis baz danych (tablice logiczne i fizyczne), źródła i struktury danych wejściowych, reguły mapowania danych wejściowych na zmienne (variables, measures) bazy hurtowni, specyfikację wymiarów (wraz z ich hierarchią), reguł ekstraktyzacji i transformacji, reguł obliczeń danych wskaźnikowych itp.). Standardy dla metadanych, niezależne od platform i dostawców, opracowywane są przez kilka grup roboczych ( MetaData Coalition, Open Metadata Council, OMG i Microsoft).

Powrót do skorowidza       tematycznego        alfabetycznego

OLAP (On Line Analytical Processing ) - przetwarzanie analityczne w trybie on-line ,w skrócie: przetwarzanie analityczne

Termin (wraz z towarzyszącymi mu 12 zasadami) utworzony w 1993 r. przez twórcę teorii relacyjnych baz danych E.F.Codda.

Oto reguły OLAPu opublikowane w “białym raporcie” (white paper) firmowanym przez Comshare autorstwa E.F.Codd, S.B.Codd, C.T.Saleley :

  1. Wielowymiarowe spojrzenie (view) konceptualne
  2. Transparentność ( niezależność od platform)
  3. Dostępność pozwalająca na utworzenie spójnego spojrzenia użytkownika (OLAP powinien dokonywać wewnętrznie konwersji tego ‘view’ na swoje wewnętrzne struktury danych)
  4. Wydajność raportowania niezależna od wzrostu liczby wymiarów
  5. Serwer OLAPowy działający w architekturze klient-serwer z dostępem przyjaznym dla klientów
  6. Równość wymiarów: struktury danych i funkcje mogą być przydzielane dowolnym wymiarom
  7. Tylko jeden optymalny fizyczny schemat danych dla każdej macierzy danych
  8. Narzędzie OLAPowe dostępne równocześnie dla wielu użytkowników wykorzystujących te same dane lub te same analityczne modele.
  9. Nieograniczone operacje międzywymiarowe (unrestricted cross-dimensional operations): możliwość przyporządkowania obliczeń do dowolnych wymiarów z możliwością konsolidacji przy przechodzeniu pomiędzy poziomami agregacji, dozwolone relacje pomiędzy dowolnymi pozycjami danych (data cells)
  10. Intuicyjne "drążenie" danych (np.drill down) - bez przechodzenia przez aparat pośredniczący (menu lub inne łącze)
  11. Elastyczne raportowanie - wg wszystkich wymiarów włączając wszystkie możliwe podzbiory.
  12. Nieograniczona liczba wymiarów i poziomów agregacji, a przynajmniej 15 wymiarów (najlepiej 20) stowarzyszonych ze wspólnym modelem analitycznym. Każdy wymiar powinien mieć nieograniczoną liczbę agregacji definiowanych przez użytkowników w ramach danej ścieżki konsolidacyjnej.

Komitet d/s OLAPu powstał na przełomie 1994/1995 r. i w wyniku jego pracy pojawił się standard API dla dostępu i zarządzania wielowymiarowością danych.

Z punktu widzenia końcowego użytkownika OLAP oznacza przede wszystkim wielowymiarową analizę danych zainicjowaną z jego stacji roboczej w trakcie oglądania danych na ekranie (“on the fly”), obejmującą manipulację wymiarami (czyli “data-drilling”) oraz złożone mechanizmy raportowania i wizualizacji danych

Technika OLAP działać może na relacyjnych bazach danych (ROLAP- Relational OLAP) lub specjalnie zaprojektowanych bazach wielowymiarowych (MOLAP-Multidimentional OLAP). MOLAP osiągany jest np. poprzez wektorowe (macierzowe) struktury danych lub oparte na geometrii fraktalnej, zaś ROLAP poprzez “nakładki” na relacyjne bazy danych (np. Star Schema, bitowe mapy indeksowe, fizyczna segmentacja danych wg wymiarów, dynamicznie tworzony wielowymiarowy model danych). Do MOLAP zaliczane są przede wszystkim Essbase (Arbor/Hyperion), Acumate (Kenan), Express(Oracle), MDDB (SAS) i TM/1 (TM/1). Pod koniec lat 90-tych niektóre narzędzia (np. Holos, Express, OLAP Services SQL Server) zostały rozbudowane do postaci hybrydowej (zasługując na nazwę HOLAP - Hybrid OLAP), obsługującej zarówno bazy relacyjne jak i kostki wielowymiarowe.

Tak więc w hurtowniach mogą być stosowane różnorodne struktury danych: klasyczne znormalizowane, znacznie zmodyfikowane (zdenormalizowany schemat gwiaździsty lub wielogwiaździsty, "pośredni" schemat śnieżynki-“snowflake schema” polegający na dekompozycji wymiarów) lub też zupełnie oryginalne w postaci tzw. kostek (sześciany “multicube” w pakietach Express,TM1 i “hypercube” w Essbase). W kostce Expressowej przechowywane są wartości miary (measures), np. sprzedaży, w układzie hierarchii wymiarów. W bazie danych definiuje się wiele kostek, które korzystają z wspólnych metadanych definiowanych na poziomie całej bazy. Wymiana (operacje eksportu i importu) danych pomiędzy bazami odbywa się za pośrednictwem specjalnych plików (EIF-Express Intechange Format), zawierających nie tylko wartości zmiennych lecz również stowarzyszone z nimi wymiary (w przypadku eksportu obliczanej zmiennej przekazywane sa tylko wymiary i wzór zmiennejj). Innym typem wielowymiarowości są indywidualnie wymiarowane kostki (infocubes) hurtowni biznesowej BW (Business Warehouse) firmy SAP. Firma SAS oferuje wielowymiarową bazę danych MDDB, w której kostka wielowymiarowa, obsługiwana przez mechanizm zwany “NWAY crossing”, może posiadać wiele zmiennych (miar). Wiele zmiennych (do 127) posiadać może kostka w OLAP Service w ramach SQL Server firmy Microsoft.

W przypadku relacyjnych baz danych wysiłek główny wydaje się być ukierunkowany na eliminowanie takiej wady jaką jest tworzenie iloczynu kartezjańskiego tablic, np. w Oracle8 osiąga się to za pomocą dynamicznie łączonych indeksów bitowych.

Powrót do skorowidza        tematycznego    alfabetycznego

PLIK DANYCH

Zestaw danych stanowiący samodzielną jednostkę z punktu widzenia systemu operacyjnego.

Powrót do skorowidza        tematycznego    alfabetycznego

PORTAL

Jest to “wejściowa brama” (internetowe “wrota”) do internetu zawierająca nie tylko wyszukiwawczy serwis informacyjny (content) lecz też mozliwość komunikowania się użytkowników (chat), zakładania darmowych kont pocztowych i serwis handlowy (e-commerce). Z punktu widzenia serwisu informacyjnego rozróznia się portale wertykalne ( tematyczne) zwane wortalami i horyzontalne. W ramach portali można dokonywać personalizacji użytkowników, tworząc profile poszczególnych uzytkowników lub grup, odpowiadające ich zainteresowaniom i potrzebom informacyjnym.


Powrót do skorowidza       tematycznego        alfabetycznego

PORTLET

W aplikacjach intranetowych wyróżnia się pojęcie portletu, który jest standardem udostępniania portali aplikacyjnych pracownikom firmy. Portletami są mini-okienka dostępne w portalu i dedykowane celom informacyjnym, serwisowym. sprzedaży itp.


Powrót do skorowidza       tematycznego        alfabetycznego

PRZETWARZANIE TRANSAKCYJNE OLTP (On-Line Transaction Processing)

Termin OLTP w szerokim rozumieniu oznacza przetwarzanie transakcyjne, polegające na bieżącej obsłudze transakcji wprowadzanych przez użytkowników z klawiatury stacji roboczej, czytników kart płatniczych itp.

Zaawansowane OLTP posiada odpowiednie środowisko systemowe zapewniające niezawodną wysoką wydajność obsługi intensywnego strumienia transakcji napływających od dużej liczby współbieżnych użytkowników pracujących w rozproszeniu geograficznym (poprzez sieć rozległą). W skład środowiska wchodzi monitor transakcyjny, np. Tuxedo, ACMS,CICS, Encina, /T, TopEnd, Microsoft Transaction Server - Viper). Monitor transakcyjny funkcjonować może jako przedprocesor front-end w stosunku do komputerów mainframe lub serwerów unixowych. W standardzie Unixa SVR4 na środowisko to składają się m.i. systemy plików ViFS (Veritas Journalizing File System) i VxFS (Veritas Commercial Fille System) oraz system zarządzania i obsługi pamięci masowych VxVM (Veritas Disk Manager).

Transakcje obsługiwane przez OLTP powinny spełniać wymagania ACID (Atomicity, Consistency, Isolation, Durability ). Atomicity (atomowość) oznacza, że wszystkie akcje składające się na transakcję muszą być wykonance w całości (w przeciwnym razie następuje powrót do stanu poprzedzającego transakcję. Consistency (spójnośc) polega na tym, że każda transakcja pozostawia system w poprawnym stanie. Izolacja oznacza izolowanie transakcji od siebie podczas współbieżnej realizacji. Durability (trwałość) jest cechą oznaczającą, iż efekty transakcji są trwałe. Atrybutem OLTP opatrywane są operacyjne bazy danych.

Systemy OLTP ukierunkowane są na operacje aktualizacji określane skrótem CRUD (Create, Replace, Update, Delete), podczas których odczytywana jest niewielka liczba rekordów (wierszy tablicy) np. przy transakcji bankowej aktualizowane jest saldo na rachunku klienta, historia transakcji na rachunku oraz pozycja klienta.


Powrót do skorowidza       tematycznego        alfabetycznego

ROZLEGŁA SIEĆ (WAN)

Sieć komputerowa pracująca na dużych odległościach (praktycznie nieograniczonych) z użyciem modemów, routerów, używająca różnych protokołów teletransmisji itp.


Powrót do skorowidza       tematycznego        alfabetycznego

SERWLET

Serwlet (servlet) jest miniprogramem wykonywanym na serwerze (a nie po stronie klienta)..


Powrót do skorowidza       tematycznego        alfabetycznego

SIECI INTERNETOWE

Globalna sieć WWW, intranety, extranety.


Powrót do skorowidza       tematycznego        alfabetycznego

SYSTEM ZARZĄDZANIA RELACJAMI Z KLIENTEM - CRM (Customer Relationship Management)

W najszerszej interpretacji CRM obejmuje relacje z klientem w zakresie marketingu, promocji i sprzedaży, a więc dotyczy również kanałów dystrybucji produktów (włączając call-center) oraz obejmuje hurtownię marketingowo-klientowską. W wąskiej interpretacji - stosowanej zazwyczaj w przemyśle - CRM nie zawiera ani funkcjonalności marketingowej ani związanej bezpośrednio ze sprzedażą , lecz ogranicza się do zarządzania relacjami z konkretnymi klientami na etapach przed sprzedażą (negocjowanie ceny, planowanie dostawy) i po sprzedaży (rozliczenie dostawy, serwis gwarancyjny, reklamacje).


Powrót do skorowidza       tematycznego        alfabetycznego

SYSTEM ZARZĄDZANIA BAZĄ DANYCH (SZBD)

Oprogramowanie usługowe, znajdujące się poza oprogramowaniem aplikacyjnym, odpowiedzialne za utrzymywanie relacji pomiędzy plikami, ich bezpieczeństwo w warunkach wielodostępu i awarii, wyposażone w język zapytań, generator raportów i inne narzędzia. Istnieje kilka podstawowych typów struktur utrzymywanych przez SZBD: relacyjne (oparte na standardzie SQL i uznawane za najbardziej otwarte), hierarchiczne (np. IMS firmy IBM) i binarno-sieciowe CODASYLowskie.

Do systemów zarządzania relacyjnymi bazami danych (RDBMS) należą m.i. ORACLE, SYBASE, INGRES, INFORMIX .


Powrót do skorowidza       tematycznego        alfabetycznego

STAR SCHEMA

W “Star Schema” rozróznia się tablice faktów/danych (fact tables) i tablice wymiarów (dimension tables). Przykład tablicy faktów: baza rachunkow bankowych (faktami są w niej: centrum kosztów, typ produktu, nr klienta, nr rachunku, saldo aktualne,salda w poszczególnych miesiącach roku biezącego, roku ubiegłego , konto księgowe itp., kluczami odwołującymi się do tablic wymiarów są: symbol waluty, symbol podmiotu. Przykłady tablic wymiarów: tablice walut, tablica nazw miesięcy (ew.kalendarz roku ze wskazaniem dni roboczych i świątecznych), lista produktów, lista centrów kosztów, . lista form prawnych podmiotów, lista krajów, W technologii hurtowni danych z reguły jedna tablica faktów odwołuje się do wielu tablic wymiarów. Z punktu widzenia nawigacji wielowymiarowej ważne są tzw. przecięcia kluczy (tworzące jakby “gwiaździsty” rysunek relacji danej z wymiarami). Z punktu widzenia relacyjnej bazy danych są to relacje pomiędzy kluczem “primary” i kluczami “foreign”, lokowane w indeksie typu “star-index”. W RDBMS Oracle8 wbudowano mechanizm optymalizacji zapytań gwiaździstych, wykorzystujący B-drzewa indeksowe i indeksy bitowe. Optymalizacja polega na wyeliminowaniu tworzenia iloczynu kartezjańskiego tablic wymiarów oraz złożonych wielokolumnowych indeksów na tablicy faktów.

Zestaw powiązanych ze sobą schematów gwiaździstych nazywany jest schematem galaktyki (galaxy schema).


Powrót do skorowidza       tematycznego        alfabetycznego

SYSTEMY OPARTE NA SZTUCZNEJ INTELIGENCJI

Systemy sztucznej inteligencji (artificial intelligence - AI) mogą być różnorodne: neuronowe, oparte na logice rozmytej (fuzzy logic), algorytmach genetycznych, bazach wiedzy (knowledge based) itp. Systemy te znajdują zastosowanie w środowisku słabo określonym lub nieokreślonym (np. w rozkładach liczb sprawiających wrażenie chaosu ), w którym występują niekompletne lub niespójne dane, nie ma klasycznych algorytmów z dokładnie zdefiniowanymi zmiennymi i zależnościami arytmetycznymi, możliwych jest wiele rozwiązań przy tych samych danych a różnych współczynnikach niepewności, występują dynamiczne zależności nieliniowe itp. W systemach AI wykorzystywane są techniki rozwiązywania problemów używane przez ludzi. Stosowane są tutaj takie techniki uczenia się jak heurystyczne ciągi wnioskowania (heuristic reasoning chains) wg przypadków (case-based) już zaistniałych (uczenie się na faktach lub przykładach) lub wg reguł (rule-based), itp. Do tej klasy systemów należą systemy ekspertowe i oparte na modelach sieci neuronowej. Cechą charakterystyczną systemów z zakresu sztucznej inteligencji jest to, że nie potrzebują one kompletnych danych, a wręcz minimalizują ich ilość poprzez tzw. redukcję danych, pozostawiającą jedynie informacje pierwotne (usuwanie wtórnych informacji poprzez tzw. feature selection, podobnie jak w przypadku normalizacji baz relacyjnych), istotne lub syntetyczne (wyabstrahowane charakterystki grupowe tzw. clustering), dzięki czemu zmniejsza się maszynochłonność przetwarzania danych. Do filtrowania danych używane mogą być modele sieci neuronowej, służące do wychwycenia korelacji danych ze standardowymi trendami. Przykładem potrzeby redukcji danych są ślady audytowe, generowane automatycznie przez systemy operacyjne i aplikacje (na jednego użytkownika prypadać może kilka Megabajtów za 1 dzień) albo dzienniki zdarzeń zachodzących w sieci i charakterystyki każdego połączenia. Dane te mogą być redukowane poprzez technikę klastrowania (high density and low density regions). Technologia systemów AI obejmuje zwykle etapy zbierania danych, redukcji danych, rozpoznawanie-klasyfikowanie zachowywania się (identyfikowanie np.rozróżnienie włamywacza od normalnego użytkownika systemu na podstawie rzadko występujących reakcji ), raportowanie i odpowiedż.

W środowisku finansowym sieci neuronowe stosowane są m.i. do analizy rynków, w tym do prognozowania kursów akcji i walut.


Powrót do skorowidza       tematycznego        alfabetycznego

SYSTEMY EKSPERTOWE uważane są za symulację myślenia ekspertów. Zwykle oparte są na mechanizmach if-then wzbogaconych o algorytmy prawdopodobieństwa lub tzw. belief values.


Powrót do skorowidza       tematycznego        alfabetycznego

SYSTEM HURTOWNI DANYCH

  • zestaw baz danych zbudowany wg określonej architektury (np. wielowarstwowej, "federalnej )
  • repozytorium metadanych
  • system zarządzania danymi hurtowni, obsługujący specyficzną organizację danych np. schemat gwiaździsty, kostka wielowymiarowa
  • oprogramowanie administrowania hurtownią (w tym zarządzania metadanymi i utrzymywania tzw.profili użytkowników (portale, listy udostępnianych raportów, sposób prezentacji graficznej itp.), ekstraktyzacji danych z baz operacyjnych, czyszczenia danych i aktualizacji hurtowni danych, kontroli i utrzymywania integralności danych (kompletności, poprawności na każdym poziomie agregacji), przyznawania uprawnień dostępu)

moduły opracowywania i prezentacji danych użytkownikom (głównie narzędzia wielowymiarowej analizy danych czyli OLAP oraz oprogramowanie inteligentnej eksploracji danych czyli “data-mining”).


Powrót do skorowidza       tematycznego        alfabetycznego

SYSTEMY NEURONOWE są próbą symulacji logiki ludzkiego poznania poprzez użycie modeli sieci neuronowych. Modele te określane są skrótem SSN - sztuczne sieci neuronowe (albo ANN - Artificial Neural Networks). Są realizowane poprzez sformalizowane metody matematyczno-statystyczne, ale koncepcyjnie wywodzą się z systemów biologicznych. Mają charakter uniwersalny, gdyż za ich pomocą można uchwycić złożone nieliniowe relacje w dowolnych zestawach danych, nawet niekompletnych lub obarczonych błędami. Mają zdolności uczenia się i pamiętania albo poprzez pomiary “siły” powiązań przy przechodzeniu od warstwy najniższej do najwyższej lub poprzez poszukiwanie wzorca (pattern recognition). Na przykład w przypadku rynku kursów akcji model neuronowy nie korzysta z predefiniowanych reguł zawierania transakcji giełdowych, lecz sam potrafi wykrywać (a ściślej biorąc, nauczyć się) relacji i zależności pomiędzy danymi analizy technicznej i fundamentalnej, wpływających na zachowanie się kursow określonych akcji lub indeksu giełdowego. W odróżnieniu od systemów ekspertowych, które identyfikują już znane wzorce, systemy te służą do wykrywania wiedzy a więc nowych (dotychczas nieznanych) wzorców. Stanowią więc w stosunku do nich nową jakość.

Sieci neuronowe są warstwowymi agregatami równoległych jednostek kalkulacyjnych zwanych perceptronami (a będących symulacją neuronów), połączonych liniami zwanymi synapsami, stowarzyszonych z parametrami zwanymi wagą. Każdy perceptron ma do wykonania operację “zważenia” i podsumowania wejść oraz przefiltrowania przez funkcje aktywacyjne. W przypadku przekroczenia progu aktywacji pośredni wynik zostaje przekazany do dalszych perceptronów zaś końcowy na zewnątrz. Model sieciowy działa poprzez interakcję perceptronów i wymaga doboru odpowiedniej topologii sieci ( ilości perceptronów i warstw), wag i funkcji filtrujących.

Uczenie sieci przebiega iteracyjnie na danych przykładowych (modelowych, testowych) i celem jego jest osiągnięcie optymalnego doboru wag. Rozróżnia się nadzorowane szkolenie (supervised learning) sieci oraz samoorganizujace. W przypadku nadzoru znane są wzorcowe wyniki końcowe i do nich dopasowywuje się ("uczy") topologię sieci, czyli liczbę warstw i perceptronów w przypadku sieci MLP (Multi-Layered Perceptrons). Sieci samoorganizujące się (np. Kohonena) same rozwiązują problem na podstawie wyłapywania relacji pomiędzy zmiennymi. Sieci neuronowe realizują kilka kategorii zadań: klasyfikacja (przyporządkowywanie wejść do klas), autoasocjacja (tworzenie “obrazu” na podstawie danych wejściowych niekompletnych lub obarczonych zakłóceniami), detekcja regularności (wykrywanie w danych wejściowych statystycznie istotnych cech) itp.

Za twórców podstaw systemów neuronowych uważani są Frank Rosenblatt z Cornell University (który zbudował w 1950 roku pierwszy perceptron) oraz Marvin Minsky (jeden z twórców sztucznej inteligencji, autor opublikowanej w 1969 roku książki zatytułowanej “Perceptrons”).


Powrót do skorowidza       tematycznego        alfabetycznego

SYSTEM MIERNIKÓW OCENY BIZNESU - BBSC (balanced business scorecard)

Inne nazwy:: zrównoważona karta dokonań, zrównoważone mierniki oceny biznesu, zbilansowane karty osiągnięć, wieloczynnikowa ocena biznesu, metoda zrównoważonej tabeli wskaźników, strategiczna karta wyników itp.

Obliczanie i prezentacja mierników oceny biznesu dotyczących różnorodnych aspektów działalności:

-finansowego (wzrost sprzedaży, wskaźniki ROE,ROA, ...)

-klientowskiego (satysfakcja klientów, % utrzymania dobrych klientów, % pozyskiwania nowych klientów)

-procesów wewnętrznych (generowanie nowych produktów , zmniejszenie stosunku kosztów do dochodów, wyeliminowanie błędów obsługi operacyjnej, doskonalenie organizacji poprzez szkolenie i zmniejszenie wypływu dobrych pracowników itp.)


Powrót do skorowidza       tematycznego        alfabetycznego

TPC BENCHMARK

Testy wydajnościowe przetwarzania transakcyjnego wg standardów opracowanych przez Transaction Processing Performance Council (TPC) . Od strony sprzętowej w testach uczestniczą komputery pracujące w architekturze klient/serwer z dołączoną dużą ilością terminali (np.tysiąc) emulowanych lub pracujących w sieci WAN. Od strony software'owej występuje monitor przetwarzania transakcji, system zarządzania bazą danych oraz symulator sesji i generator transakcji aplikacyjnych. Transakcje aplikacyjne powinny stanowić odpowiednią "mieszankę", wykorzystującą wszechstronnie zasoby komputerowe (w szczególności dyskowe) w zakresie przeszukiwania,aktualizacji i dopisywania nowych pozycji, oraz zachowującą proporcje występujące podczas rzeczywistej eksploatacji. W ramach testu sprawdzane mają być również własciwości ACID (Atomicity, Consistency, Isolation, Durability). Wyniki pomiarów wyrażane są w liczbie transakcji na sekundę (tps), liczbie transakcji na minutę (tpm), liczbie transakcji na godz. (tph) oraz w stosunku ceny do transakcji ($/tps, $tpm). Pomiary TPC-A/B uważane są za niemiarodajne (nie odwzorowują w żadnym stopniu rzeczywistego środowiska eksploatacyjnego). Pomiary TPC-C (wyrażane w liczbie transakcji na minutę –TpmC) zawierają zestaw prostych transakcji wzorowanych na obsłudze przedsiębiorstwa handlowego. W pomiarach klasy TPC-D (Decision Support) stosowanych jest równocześnie wiele strumieni przetwarzania. Pomiar TPC-E ma zastosowanie do testowania systemów w środowisku mainframe. Pomiar QppD sluzy do oceny wydajności komputerow ze szczególnym uwzględnieniem obsługi zapytań w hurtowniach danych (17 zapytań i 2 aktualizacje w strumieniu zadań).

   Ostatnio wprowadzono pomiary TPC-H (Ultra Complexity – dla zapytań ad hoc, wyrażany liczbą zapytań na godz. QphH) i TPC-R (Reporting – dla raportowania w systemach DSS). Ponadto istnieje też pomiar TPC-W - dla obsługi internetowej (webowej).

Poza testami TPC stosowane są również testy SPEC (System Performance Evalution Corp.): SPECMark, SpecInt, SPECFp, SPECrate itp.


Powrót do skorowidza       tematycznego        alfabetycznego

UNIX

Jeden z najpopularniejszych systemów operacyjnych. Stanowi interesujące zjawisko historyczne, będące dowodem na to, iż idąca w prawidłowym kierunku twórcza myśl techniczna, mimo upływu wielu lat (pierwsza wersja Unixa powstała w 1969 r na PDP-7 i napisano ją w asemblerze), nie musi ulegać moralnemu starzeniu. Grupie pracujacej nad UNIXem w Bell Labs (liderowali jej D.Ritchie, K.Thompson) zawdzięczamy również utworzenie języka C (poprzedzał go język B, NB na PDP-11), w którym od 1973 roku pisany jest system operacyjny UNIX. Nazwa "UNIX" została zaproponowana w 1970 r przez Briana Kerninghana Od tego też roku system Unix działa w środowisku akademickim, gdzie szczególnie duży wkład w jego rozwój wniósł Uniwersytet w Berkeley, autor projektu BSD. Za dojrzałą wersję UNIXa została uznana dopiero wersja z 1978 r. W 1984 r. powstał standard System V.2 (tzw. Unix Piątego Wydania), który zapewne zapoczątkował wiele prac unifikacyjnych nad systemami otwartymi.


Powrót do skorowidza       tematycznego        alfabetycznego

WAP

Wireless Application Protocol . Protokół umozliwiający przeglądanie stron internetowych na ekranie telefonu komórkowego oraz palmtopów. Został zaproponowany przez X WAP forum utworzone przez firmy: Ericcson, Nokia, Motorola i Uniwired Planet (potem Phone.com). Protokół ten oparty jest na uproszczonej wersji protokołu HTTP zwanej WTP (Wireless Transaction Protocol). Językiem uproszczonej przeglądarki jest WML (Wireless Markup Language), będący rozszerzeniem HDML (Handheld Device Markup Language). Ta mikroprzeglądrka zajmuje jedynie 128 KB i jest zapisana w pamięci ROM.


Powrót do skorowidza       tematycznego        alfabetycznego

WEBFARMING

gospodarowanie informacjami sieci internetowej (odkrywanie, uzyskiwanie, strukturyzacja i analiza).


Powrót do skorowidza       tematycznego        alfabetycznego

WIRTUALNA HURTOWNIA DANYCH

Hurtownia danych bez własnych danych lecz korzystająca bezpośrednio z danych znajdujących się w produkcyjnych (operacyjnych) bazach danych. Zwykle przeznaczona do rzadko wykonywanego prostego raportowania nie powodującego spowolnienia głównego przetwarzania. Czasem występuje jako etap przejściowy do budowy właściwej (fizycznej) hurtowni danych.


Powrót do skorowidza       tematycznego        alfabetycznego

ZRÓWNOLEGLONE PRZETWARZANIE DANYCH

Oznacza przetwarzanie zadania na więcej niż jednym procesorze. Rozróżnia się dwa podstawowe rodzaje równoległego przetwarzania: SMP - Symmetric MultiProcessing (zwane “shared memory systems”) i MPP-Massively Parallel Processing (zwane “share nothing systems” albo “distributed memory systems”). Rozróżnia się jeszcze “systemy klastrowe” (Clustered Systems) będące rozwiązaniem pośrednim (“shared disk systems”). Klaster składa się z wzajemnie połączonych komputerów, które pracują jako jeden system, korzystając ze wspólnej (dzielonej) pamięci zewnętrznej. Przykładem klastra jest połączenie dwóch lub więcej serwerów w celu zwiększenia ich ogólnej przepustowości, zapewnienia ciągłej dostępności lub jako zabezpieczenie przeciwawaryjne. Klaster zawiera wiele procesorów, rozbudowaną pamięć operacyjną itp. Przykładowo, Enterprise Cluster firmy Sun (poczwórny klaster) zawiera do 256 procesorow, 256 GB pamięci, posiada stałą przepustowość kanału wejściowo-wyjściowego (I/O) na poziomie 12,8GB/sek.


Powrót do skorowidza       tematycznego        alfabetycznego