Mała fundacja, wielki finał

Fundacja Wielka Orkiestra Świątecznej Pomocy jest niedużą organizacją - zatrudnia 25 osób. Do swojej codziennej pracy biurowej nie potrzebuje wielkich środków, ale gdy organizuje finał, współpracuje z partnerami, tworząc razem duże i sprawne środowisko IT.

Infrastruktura IT Fundacji Wielka Orkiestra Świątecznej Pomocy (WOŚP) jest bardzo mała. Składa się z kilkunastu stacji roboczych, jednego serwera oraz strony WWW hostowanej u zewnętrznego operatora - firmy ATM. Jej obsługą podczas codziennej pracy zajmuje się jedna osoba, co w zupełności wystarcza do realizacji bieżących zadań. Prostota i niewielki rozmiar zasobów IT bardzo ułatwiają pracę, gdyż dają WOŚP dużą mobilność. "Fundacja dwa razy do roku przenosi się na pewien czas do innej lokalizacji - podczas finału i w trakcie organizowanego wydarzenia <<Przystanek Woodstock>>. Wszystkie komputery są wtedy przewożone i uruchamiamy na miejscu pracę biura. Gdy korzystaliśmy z tradycyjnych stacji roboczych, trzeba było przewieźć sporo sprzętu. Obecnie działamy na laptopach i wszystkie stacje mieszczą się w jednej skrzyni. Przenoszenie tradycyjnego biura jest zbyt kłopotliwe" - wyjaśnia Andrzej Gałczyński "Szerszeń", specjalista do spraw informatyki w Wielkiej Orkiestrze Świątecznej Pomocy.

Zasoby IT biura WOŚP są zbyt małe, by podczas finału sprawnie przeprowadzić własnymi siłami licytację złotych serduszek oraz kart telefonicznych, odbywającą się na żywo na antenie TV. Do tego niezbędny jest niezawodny sprzęt oraz odpowiednie oprogramowanie. To zapewniają partnerzy Orkiestry.

"Przy organizacji infrastruktury IT dla celów finału współpracujemy z naszymi partnerami, którymi są między innymi Oracle, Cisco, TP, Crowley i ATM. Oracle przygotowuje całość przedsięwzięcia od strony sprzętu i oprogramowania, Cisco zapewnia bezpieczeństwo sieci. Połączenie z Internetem wykorzystuje dwa niezależne łącza - dostarczone przez Telekomunikację Polską oraz Crowley. Hosting zapewnia ATM" - mówi Andrzej Gałczyński.

Baza, serwer i terminale

Sercem rozwiązania IT, odpowiedzialnego za sprawny przebieg licytacji złotych serduszek i kart telefonicznych, jest baza Oracle 11g, uruchomiona w konfiguracji klastrowej (Oracle ClusterWare 11R1) na dwóch głównych maszynach SPARC Enterprise firmy Sun, znajdujących się w bezpośredniej bliskości studia telewizyjnego. Dane składowane są w dwóch StorEdge 3310, również marki Sun. W czasie finału jeden z węzłów klastra (Sun Enterprise T2000) jest wykorzystywany przez operatorów znajdujących się w studiu, natomiast drugi (Sun Enterprise T5220) obsługuje użytkowników licytujących lub obserwujących aukcje przez Internet.

Aby zabezpieczyć się przed skutkami poważnych zdarzeń, takich jak pożar czy rozległa awaria techniczna, przewidziano replikację danych online do trzeciej maszyny, która znajduje się w odległości kilkudziesięciu metrów. W tym roku był to serwer Sun Fire V490 wyposażony w procesory UltraSPARC IV+ oraz małą macierz dyskową. Ponieważ paczki danych są niewielkie, zamiast Data Guard wykorzystuje się replikację online po TCP/IP. Dane są kopiowane za pomocą wyzwalaczy ustawionych w produkcyjnej bazie i poprzez obiekt database link uzupełniane w instancji zapasowej na trzecim serwerze. Wszystkie najważniejsze maszyny pracują w środowisku systemu operacyjnego Sun Solaris.

Aby uniknąć problemów z zarządzaniem wieloma stacjami roboczymi oraz ewentualnych przerw w pracy podczas licytacji, zamiast kilkudziesięciu komputerów z systemem Windows, wybrano 36 bezdyskowych terminali graficznych Sun Ray, łączących się z klastrem dwóch serwerów w sąsiednim pomieszczeniu. W tym roku usługi aplikacyjne zapewniały: Sun Fire X4200 (2 x 2,2 GHz) oraz Sun Fire X4600 (8 x 2,4 GHz) wykorzystujące procesory AMD Opteron. Aplikacje działają w środowisku tych serwerów, na terminalach jedynie wyświetla się obraz pracującego programu.