• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Rozwikływanie naukowego Internetu

    26.03.2012. 16:37
    opublikowane przez: Redakcja Naukowy.pl

    Dzięki projektowi EUROGEOSS każdy ma teraz dostęp do milionów danych naukowych na temat naszej planety. W ramach projektu EUROGEOSS (Europejskie podejście do Globalnego Systemu Systemów Obserwacji Ziemi (GEOSS)), dofinansowanego na kwotę 6,1 mln EUR z tematu "Środowisko" Siódmego Programu Ramowego (7PR) UE, opracowano innowacyjny sposób przeszukiwania tysięcy katalogów obserwacji Ziemi. Dzięki temu wzrosła liczba zestawów danych i wyników dostępnych publicznie do badań naukowych z kilkuset w 2011 r. do ponad 28 mln w 2012 r.

    Wyjątkowość tej nowej aplikacji, którą konsorcjum nazywa brokerem EUROGEOSS, polega na tym, że służy ona za pośrednika programistycznego, który wszystko to umożliwia. Łączy mnóstwo złożonych standardów wykorzystywanych przez naukowców.

    Niezależne wcześniej katalogi i systemy informacji można teraz łączyć. Zasoby naukowe w nich zawarte zostały również udostępnione znacznie szerszej publiczności. Za to pozornie tylko proste rozwiązanie, umożliwiające odkrywanie zestawów danych i ich przekształcanie we wspólny system odniesień geograficznych, odpowiada cała gama wielorakich komponentów. Wynikiem jest możliwość dostępu do danych i ich wykorzystywania w modelach naukowych funkcjonujących w Internecie, a także publikacji uzyskiwanych w ten sposób informacji za pośrednictwem usług internetowych i sieci społecznościowych.

    Wartość brokera EUROGEOSS jest znacząca. Przykładem jest jego powiązanie z programem Natura 2000, największą siecią obszarów chronionych na świecie, która obejmuje niemal 26.000 stanowisk pokrywających niemal 18% UE. Obszarom tym zagrażają zjawiska naturalne, takie jak pożary lasów, a także presja stwarzana przez człowieka.

    W sumie ponad 60.000 hektarów obszarów chronionych zostało strawionych w pożarach w Hiszpanii, Portugalii i Włoszech w samym tylko 2010 r. Kiedy takie wydarzenia mają miejsce, ważna jest identyfikacja obszarów, które mają podobne ekosystemy do tych zniszczonych, gdzie mogą znajdować się gatunki zagrożone, wymagające dodatkowej ochrony.

    W tym celu potrzebna jest symulacja z użyciem kluczowych danych, obejmujących wskaźnik suszy, odsetek pokrywy leśnej, temperaturę, opady deszczu i wysokość nad poziomem morza. Wyszukiwanie tych danych w wielu bazach dla dowolnej części Europy było wyzwaniem. Broker EUROGEOSS sprawia, że teraz znacznie łatwiejsze i prostsze jest nie tylko wyszukiwanie danych, ale również modelowanie w Internecie i uzyskiwanie wyników, bez konieczności pobierania danych czy stosowania narzędzi do modelowania. To oznacza, że można przeprowadzać symulację w dowolnym czasie i miejscu, nawet tam, gdzie łącze internetowe jest powolne.

    Dzięki brokerowi możliwe jest również eksplorowanie sieci społecznościowych i wyszukiwanie spostrzeżeń zamieszczanych przez użytkowników, które dotyczą obszarów chronionych, a także sprawdzanie listy zagrożonych gatunków prowadzonej przez Międzynarodową Unię Ochrony Przyrody i Jej Zasobów (IUCN). To usługa kompleksowa (end-to-end) na potrzeby naukowców, polityków i obywateli.

    Broker EUROGEOSS został opracowany przez Włoską Krajową Radę ds. Badań Naukowych, która zobowiązała się do utrzymywania go przez trzy lata oraz Wspólne Centrum Badawcze (WCB) - wewnętrzne służby naukowe Komisji Europejskiej.

    Według Ivana De Loacha, dyrektora wykonawczego Amerykańskiego, Federalnego Komitetu Danych Geograficznych, EUROGEOSS to doskonały przykład sposobu, w jaki badania finansowane ze środków unijnych przyczyniają się do rozwoju GEOSS, ważnej inicjatywy światowej, która ma pogłębić naszą wiedzę o złożonych zależnościach między środowiskiem a społeczeństwem.

    Wypowiadając się na temat EUROGEOSS, Unijna Komisarz ds. Badań Naukowych, Innowacji i Nauki, Máire Geoghegan-Quinn stwierdziła: "Ogromne się cieszę z tego naprawdę niezwykłego osiągnięcia dokonanego w ramach projektu finansowanego ze środków unijnych, które zrewolucjonizuje sposób, w jaki uzyskujemy dostęp do danych obserwacyjnych o Ziemi i wykorzystujemy je na rzecz społeczeństwa."

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    Dropbox – usługa świadczona przez Dropbox, Inc. polegająca na udostępnieniu przestrzeni dyskowej na serwerach tej firmy. Wgrywanie danych na dysk jest możliwe dzięki specjalnemu oprogramowaniu, zaś do przeglądania i pobierania tych danych wystarczy dostęp do Internetu. W wersji darmowej dostępne są 2 GB miejsca na serwerach, jego powiększenie wymaga uiszczenia opłaty. Jednak korzystając z różnych ofert można powiększyć swoją przestrzeń dyskową za darmo (zaproszenie nowego użytkownika, instalacja oficjalnej aplikacji etc.). Łącznie w ramach takiej współpracy możemy powiększyć naszą przestrzeń dyskową do 18 GB. Portal Badań Estońskich (est. Eesti Teadusportaal, ETIS; ang. Estonian Research Portal) – system informacyjny utworzony przez Estońskie Ministerstwo Szkolnictwa i Nauki, którego zadaniem jest ułatwienie szybkiego dostępu do aktualnych i kompleksowych informacji o nauce estońskiej w różnych jej dziedzinach. Na portalu można zasięgnąć informacji dotyczących instytutów i projektów naukowo-badawczych oraz estońskich badaczy i ich publikacji. System zawiera kilka działów i baz danych, m.in.: aktualności naukowe, forum, polityka badań naukowych i rozwoju, współpraca międzynarodowa i itd. Normalizacja bazy danych jest to proces mający na celu eliminację powtarzających się danych w relacyjnej bazie danych. Główna idea polega na trzymaniu danych w jednym miejscu, a w razie potrzeby linkowania do danych. Taki sposób tworzenia bazy danych zwiększa bezpieczeństwo danych i zmniejsza ryzyko powstania niespójności (w szczególności problemów anomalii).

    Operacyjne bazy danych - bazy wykorzystywane wszędzie tam, gdzie istnieje potrzeba nie tylko na gromadzenie danych, ale również na możliwość ich modyfikowania. Ten typ baz przechowuje dane dynamiczne, tzn. takie, które ulegają ciągłym zmianom i przedstawiają aktualny stan rzeczy, której dotyczą. Zazwyczaj to ten typ bazy można spotkać w różnych organizacjach i firmach. Przykładem takiej bazy danych są np. bazy inwentaryzacyjne lub bazy obsługi zamówień. Indeksowanie stron - proces analizy dokumentów dostępnych w World Wide Web (np. w formatach HTML, PDF) przez specjalny program komputerowy. Polega na gromadzeniu danych o występujących w dokumentach wyrazach i innych treściach (np. grafikach), które umieszcza się w wydajnych bazach danych umożliwiających późniejsze szybkie wyszukiwanie wyrazów i fraz bez konieczności ponownego analizowania i przeszukiwania źródłowych dokumentów. To dzięki indeksowaniu wyszukiwarka internetowa może podać wynik przeszukiwania miliardów dokumentów w bardzo krótkim czasie.

    Polityka naukowa definiowana jest jako działalność państwa oraz innych instytucji publicznych mająca na celu takie wpływanie na naukę, które w sposób optymalny przyczyni się do wzrostu gospodarczego i rozwoju społecznego przy jak najlepszym wykorzystaniu środków na badania naukowe. Często do szeroko rozumianej polityki naukowej zalicza się także politykę innowacyjną, której zadaniem jest wprowadzanie wyników badań naukowych, wynalazków i usprawnień do praktyki gospodarczej. Jest to jedna z najmłodszych dziedzin polityki gospodarczej, ukształtowała się dopiero w latach pięćdziesiątych ubiegłego stulecia. Przełomową datą jest rok 1935, kiedy to wydano pracę J.D.Bernala pt. "The Social Function of Science"("Społeczna funkcja nauki"), ujmującą całościowo problemy nauki we współczesnym świecie. W 1967r. we Frascati(Włochy) odbyła się konferencja przedstawicieli krajów skupionych w OECD, w trakcie której wypracowano wiele zaleceń i definicji dotyczących polityki naukowej, będących podstawą obecnego rozwoju tej dziedziny. Dzięki ustaleniom z 1967r. w wielu krajach, także w krajach rozwijających się, utworzono organy decyzyjne a szczeblu rządowym odpowiedzialne za politykę naukową. Administrator bezpieczeństwa informacji (ABI) – termin prawniczy, który w prawie polskim został wprowadzony przepisami ustawy z dnia 29 sierpnia 1997 roku o ochronie danych osobowych. Oznacza osobę nadzorująca z upoważnienia administratora danych osobowych przestrzeganie stosowania środków technicznych i organizacyjnych zapewniających ochronę przetwarzanych danych osobowych w sposób odpowiedni do zagrożeń oraz kategorii danych objętych ochroną. Wedle interpretacji Generalnego Inspektora Ochrony Danych Osobowych administratorem bezpieczeństwa informacji może być wyłącznie osoba fizyczna.

    Data Vault – technika modelowania danych (w hurtowniach danych) zaprojektowana tak, aby zapewnić przechowywanie danych historycznych z wielorakich systemów operacyjnych (źródłowych). Data Vault oznacza również, obok aspektu modelowania, sposób patrzenia na dane historyczne, który zapewnia audytowalność, śledzenie danych, szybkość ładowania oraz odporność na zmiany biznesowe. World Values Survey - projekt badawczy o zasięgu globalnym, którego głównym przedmiotem zainteresowania są wartości i przekonania, ich zmiany zachodzące w czasie i wpływ, jaki wywierają na życie społeczne i polityczne. Badania prowadzone są przez sieć naukowców działających na całym świecie, która od 1981 r. przeprowadziła szereg badań w niemal 100 krajach. Obecnie World Values Survey pozostaje głównym źródłem danych empirycznych na temat postaw, w tym wyznawanych wartości i przekonań, blisko 90% światowej populacji.

    LODMAN – miejska sieć komputerowa w Łodzi. Jest to szkieletowa sieć dalekiego zasięgu, łącząca sieci lokalne większości łódzkich uczelni, instytutów naukowych i ważniejszych urzędów, realizująca dostęp do Internetu dla tych instytucji. LODMAN jest także instytucją rejestrującą dla domen lodz.pl, sieradz.pl, plock.pl, zgierz.pl, pabianice.pl, skierniewice.pl, oraz zajmuje się eksploatacją systemu rozproszonej bazy danych Łódzkiej Akademickiej Sieci Bibliotecznej, która m.in. udostępnia w internecie zasoby katalogowe 10 największych bibliotek naukowych w Łodzi.

    ScienceDirect – jedna z największych na świecie kolekcji internetowych opublikowanych artykułów badawczych, prowadzona przez wydawnictwo Elsevier. Zawiera ponad 7 milionów artykułów z ponad 2000 czasopism naukowych, jak również liczne serie naukowe. Na bazie ScienceDirect została w 2002 utworzona literaturowa baza danych Scopus dostępna przez Internet i stanowiąca bezpośrednią konkurencję dla baz danych Instytutu Filadelfijskiego.

    W przetwarzaniu komputerowym, trwała struktura danych albo czysto funkcyjna struktura danych to struktura danych, która zawsze zachowuje swoje poprzednie wersje, kiedy są modyfikowane. Takie struktury danych są w efekcie niezmienne, jako że operacje na nich nie powodują zmiany samej struktury, lecz powoduje powstanie nowej, uaktualnionej jej wersji. Trwała struktura danych nie jest strukturą danych składowaną na trwałym nośniku danych, takim jak dysk; jest to inne i niepowiązane znaczenie słowa "trwały". Amazon Simple Storage Service (Amazon S3) - internetowy nośnik danych firmy Amazon, ma prosty w obsłudze interfejs WWW, który umożliwia dostęp do przechowywanych danych i zarządzanie nimi. Ilość przechowywanych danych jest praktycznie nielimitowana. Jakość i skalowalność infrastruktury Amazon S3 jest taka sama jak ta używana przez firmę Amazon do udostępniania i zarządzania własną, globalną siecią stron internetowych.

    W informatyce tablica mieszająca lub tablica z haszowaniem (ang. hash table, niekiedy błędnie tłumaczone jako "tablica haszująca") to struktura danych, która jest jednym ze sposobów realizacji tablicy asocjacyjnej, tj. abstrakcyjnego typu danych służącego do przechowywania informacji, w taki sposób aby możliwy był do nich szybki dostęp. Tablica mieszająca umożliwia również szybkie porównywanie danych, np. fragmentów tekstów, plików. Transaction Processing Performance Council (TPC) jest organizacją typu non-profit założoną w 1985 w celu zdefiniowania testów wydajnościowych w dziedzinie przetwarzania danych. Organizacja ta publikuje wyniki testów, które dzięki dobrze zdefiniowanej metodyce są uważane za obiektywne i weryfikowalne. Wyniki testów TPC są powszechnie stosowane dla porównywania wydajności systemów przetwarzania danych. Specyficzną cechą tych testów jest podawanie wyników, nie tylko w ilości transakcji w jednostce czasu, ale też obliczanie kosztu pojedynczych transakcji bazując na cenie katalogowej użytego systemu. Testy wydajnościowe TPC są stale rozwijane by uzyskać wyniki w sytuacjach zbliżonych do tych, w jakich pracują systemy podczas komercyjnego stosowania przez organizacje zajmujące się przetwarzaniem danych. Stąd na przykład wprowadzenie testów w podziale według kategorii "wielkość bazy danych", gdy eksperci stwierdzili, że liczba rekordów w bazie danych może istotnie wpływać na uzyskiwane wyniki wydajnościowe.

    Dodano: 26.03.2012. 16:37  


    Najnowsze