• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Konferencja nt. wspólnej teledetekcji miejskiej, Monachium, Niemcy

    29.11.2010. 16:17
    opublikowane przez: Redakcja Naukowy.pl

    W dniach 11-13 kwietnia 2011 r. w Monachium, Niemcy, odbędzie się konferencja pt. "Wspólna teledetekcja miejska - JURSE 2011".

    Stale rosnąca ilość wielorakich danych sensorycznych oferuje możliwości zajęcia się nowymi zagadnieniami i rozwiązania istniejących problemów teledetekcji miejskiej w skuteczniejszy sposób.

    Aby zbadać pełny potencjał oferowany przez owe różnorodne źródła danych, należy zbadać kilka kwestii, na przykład sposób wybierania najlepszych zbiorów danych do różnych aplikacji oraz sposób wdrażania i wykorzystywania algorytmów oraz procedur do przetwarzania danych z pojedynczego czujnika. Inną ważną kwestią jest sposób połączenia informacji pochodzących z rozmaitych czujników. Na przykład na jakim poziomie dane przetwarzane odrębnie należy połączyć.

    Teledetekcja miejsca obejmuje szeroki zakres zagadnień i dyscyplin badawczych, pojawiając się jako prawdziwie interdyscyplinarna dziedzina. Wydarzenie zostanie zorganizowane wokół różnorodnych sesji specjalnych z prezentacjami ustnymi i plakatowymi. Tematy dyskusji będą następujące:
    - nowe dane i czujniki na potrzeby teledetekcji na obszarach miejskich;
    - wykrywanie i charakterystyka struktury na obszarach miejskich;
    - algorytmy i techniki interpretacji danych z teledetekcji na obszarach miejskich;
    - algorytmy i techniki na potrzeby aplikacji na obszarach miejskich;
    - miejska klimatologia, geologia i geozagrożenia;
    - zastosowania w naukach społecznych;
    - zastosowania w planowaniu i konserwacji urbanistycznej;
    - rozwój obszarów miejskich i modele rozrostu;
    - ekologia miejska i stref "peri-urban".

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    Teledetekcja (ang. remote sensing) to rodzaj badań wykonywanych z pewnej odległości (zdalnie) przy wykorzystaniu specjalistycznych sensorów (czujników). Badania teledetekcyjne można wykonywać z samolotów, przestrzeni kosmicznej lub z powierzchni ziemi. Metody teledetekcyjne dzielą się na aktywne i pasywne. W aktywnej teledetekcji sygnał jest wysłany z instrumentu, a po odbiciu od obiektu, odbierany i analizowany. Przykładami aktywnej teledetekcji jest aktywny radar, w którym wysyłane są mikrofale, lidar – w tym przypadku wysyłane jest światło, czy sodar lub sonar – wtedy wysyłane są fale akustyczne. Pasywnymi metodami teledetekcji są metody oparte na analizie sygnałów emitowanych przez obserwowany obiekt. Zdjęcie fotograficzne jest przykładem teledetekcji pasywnej. Terminu teledetekcja używa się zwykle przy pomiarach wykonywanych z pokładu satelitów czy też samolotów, ale dotyczy on także wszelkich innych pomiarów wykonywanych zdalnie. Techniki teledetekcyjne używają tzw. metod odwrotnych do oceny interesujących własności. Dla przykładu, ocena ilości deszczu z chmur może być dokonana na podstawie intensywności sygnału z radaru meteorologicznego. Dziedzina ta rozwija się bardzo intensywnie głównie na potrzeby robotyki (orientacja przestrzenna), bezpieczeństwa (obserwacja poprzez nieprzeźroczyste przeszkody np. ściany - (ang. through-the-wall detection)) i zdalna identyfikacja osób, przemysłu samochodowego (wykrywanie zagrożeń na drodze) (ang. automotive radar), logistyki (zdalna identyfikacja towarów), monitoringu środowiska naturalnego, medycynie i wielu innych dziedzin. Data Vault – technika modelowania danych (w hurtowniach danych) zaprojektowana tak, aby zapewnić przechowywanie danych historycznych z wielorakich systemów operacyjnych (źródłowych). Data Vault oznacza również, obok aspektu modelowania, sposób patrzenia na dane historyczne, który zapewnia audytowalność, śledzenie danych, szybkość ładowania oraz odporność na zmiany biznesowe. Normalizacja bazy danych jest to proces mający na celu eliminację powtarzających się danych w relacyjnej bazie danych. Główna idea polega na trzymaniu danych w jednym miejscu, a w razie potrzeby linkowania do danych. Taki sposób tworzenia bazy danych zwiększa bezpieczeństwo danych i zmniejsza ryzyko powstania niespójności (w szczególności problemów anomalii).

    Przetwarzanie danych (ang. data processing) – przekształcanie treści i postaci danych wejściowych (ang. input) metodą wykonywania systematycznych operacji w celu uzyskania wyników (ang. output) w postaci z góry określonej. Wyróżnia się przetwarzanie numeryczne (stosunkowo skomplikowane algorytmy i niewielkie ilości danych) oraz systemowe (stosunkowo proste algorytmy i duże ilości danych). Big data – termin odnoszący się do dużych zbiorów danych, których przetwarzanie wymaga zastosowania specjalistycznego oprogramowania. W praktyce pojęcie dużego zbioru danych oznacza rozmiar wyrażany przy pomocy co najmniej dziesiątek terabajtów, a często nawet petabajtów. Big data ma zastosowanie wszędzie tam, gdzie dużej ilości cyfrowych danych towarzyszy potrzeba zdobywania nowych informacji lub wiedzy. Szczególne znaczenie odgrywa wzrost dostępności Internetu oraz usług świadczonych drogą elektroniczną, które w naturalny sposób są przystosowane do wykorzystywania baz danych.

    Analiza dyskryminacyjna (ang. discriminant analysis) – zespół metod wielowymiarowej analizy danych. Zalicza się do grupy prognoz ilościowych. Zawiera metody, które czynią z tej techniki niezwykle efektywne narzędzie do zagadnień klasyfikacyjnych i technik eksploracja danych. Jej zadaniem jest rozstrzyganie, które zmienne w najlepszy sposób dzielą dany zbiór przypadków na występujące w naturalny sposób grupy. Pozwala rozstrzygnąć, czy grupy różnią się ze względu na średnią pewnej zmiennej, oraz wykorzystanie tej zmiennej do przewidywania przynależności do danej grupy. Kostka OLAP (ang. OLAP cube) – jest strukturą danych, która pozwala na szybką analizę danych. Przechowuje ona dane w sposób bardziej przypominający wielowymiarowe arkusze kalkulacyjne niż tradycyjną, relacyjną bazę danych. Można ją również zdefiniować jako zdolność manipulowania i analizowania danych z różnych punktów widzenia. Rozmieszczenie danych w kostkach pokonuje ograniczenia relacyjnych baz danych.

    Database Publishing – metoda zautomatyzowanej produkcji publikacji wykorzystująca wyspecjalizowane techniki do generowania wielostronicowych dokumentów z danych źródłowych zawartych w tradycyjnych bazach danych. Zawartość takich baz mogą stanowić zarówno teksty, jak i obrazki, ale w jej skład mogą wchodzić również metadane związane z zasadami formatowania generowanych dokumentów. Typowymi przykładami dokumentów generowanych w ten sposób są katalogi, raporty, cenniki, materiały na potrzeby marketingu bezpośredniego, czy nawet książki telefoniczne. Podstawową ideą Database Publishingu jest użycie zawartości bazy danych w celu wypełnienia wstępnie sformatowanych szablonów dokumentów. Są one zwykle tworzone w układzie, w którym pewne obszary lub teksty oznacza się jako pola zastępcze. Następnie kierowana jest do nich docelowa zawartość pochodząca ze źródła danych. Pozwala to na szybką generację finalnej publikacji, a w przypadku zmian w bazie danych, na sprawną jej aktualizację za pomocą zautomatyzowanego procesu. Kolejny model zastosowania Database Publishing można znaleźć w wielu rozwiązaniach typu Web-to-Print, w których użytkownicy przeglądają szablony umieszczone w katalogu online (np. wizytówki, broszury itp.), personalizują wybrany szablon poprzez wypełnienie formularza, a następnie odbierają gotowy do zastosowania materiał wyjściowy. Database Publishin jest silnie związany z metodą Dynamic Publishing. PHP Data Objects (w skrócie PDO) – rozszerzenie języka PHP udostępniające jednolity interfejs baz danych w postaci pojedynczej klasy z metodami wspólnymi dla różnych silników zarządzania bazą danych. Eliminuje to konieczność korzystania przez twórców oprogramowania z własnych lub zewnętrznych rozwiązań unifikujących sposób operowania na bazie danych.

    Karlstor - jedna z trzech istniejących obecnie, dawnych bram miejskich w Monachium, w Niemczech. Stanowiła fragment średniowiecznych fortyfikacji miejskich. Zrekonstruowana po zniszczeniach z okresu II wojny światowej, prowadzi do wielkiego placu Karola (niem. Karlsplatz) zdominowanego przez Pałac Sprawiedliwości (niem. Justizpalast).

    Analiza danych – proces przetwarzania danych w celu uzyskania na ich podstawie użytecznych informacji i wniosków. W zależności od rodzaju danych i stawianych problemów, może to oznaczać użycie metod statystycznych, eksploracyjnych i innych.

    Operacyjne bazy danych - bazy wykorzystywane wszędzie tam, gdzie istnieje potrzeba nie tylko na gromadzenie danych, ale również na możliwość ich modyfikowania. Ten typ baz przechowuje dane dynamiczne, tzn. takie, które ulegają ciągłym zmianom i przedstawiają aktualny stan rzeczy, której dotyczą. Zazwyczaj to ten typ bazy można spotkać w różnych organizacjach i firmach. Przykładem takiej bazy danych są np. bazy inwentaryzacyjne lub bazy obsługi zamówień. Modele struktury przestrzennej miasta: Szybkie rozprzestrzeniania się na wielką skalę zagrożeń związanych z rozwojem obszarów miejskich w XIX wieku zaowocowało powstaniem teorii rozwoju struktury społecznej miast. Narastające problemy społeczne wykazały niezbędność interwencji władz miejskich. Spowodowało to konieczność przewidywania przeobrażeń struktur miejskich w celu odpowiedniego wykrywania nadchodzących (nieznanych, wynikających z niespotykanego nigdy wcześniej rozwoju gospodarczego i przemysłowego) zagrożeń.

    SDSL – technologia przesyłu danych za pomocą telefonicznej linii abonenckiej pozwalająca użytkownikowi połączyć się z siecią danych (np. Internetem) w sposób symetryczny. Umożliwia profesjonalne zastosowania, wideokonferencje czy budowanie korporacyjnych sieci wirtualnych. Oferuje prędkość transmisji: 1,536Mb/s (T1) lub 2Mb/s (E1). Sybase IQ to rozwiązanie firmy Sybase z obszaru Business Intelligence. Sybase IQ to serwer analityczny, który został zoptymalizowany do obsługi hurtowni danych i aplikacji wspierających podejmowanie decyzji. Przeznaczony jest do wydajnej analizy dużych ilości danych. Zawiera opatentowaną technologię Vertical Partitioning. Jest to kolumnowa baza danych (CODB). Dane przechowywane są kolumnami (każda kolumna oddzielnie), a nie wierszami (rekordami) jak to ma miejsce w konwencjonalnych bazach danych. Przyczynia się to do bardzo szybkiej obsługi złożonych, nieplanowanych zapytań. Sybase IQ nie wymaga czasochłonnego i kosztownego dostrajania, aby utrzymać wysoką wydajność przetwarzania zapytań.

    Krzywa spektralna (nazywana też charakterystyką spektralną) przedstawia zależność współczynnika odbicia promieniowania od długości fali. Jest ona wykorzystywana w teledetekcji satelitarnej do klasyfikowania obserwowanych obiektów. Administrator bezpieczeństwa informacji (ABI) – termin prawniczy, który w prawie polskim został wprowadzony przepisami ustawy z dnia 29 sierpnia 1997 roku o ochronie danych osobowych. Oznacza osobę nadzorująca z upoważnienia administratora danych osobowych przestrzeganie stosowania środków technicznych i organizacyjnych zapewniających ochronę przetwarzanych danych osobowych w sposób odpowiedni do zagrożeń oraz kategorii danych objętych ochroną. Wedle interpretacji Generalnego Inspektora Ochrony Danych Osobowych administratorem bezpieczeństwa informacji może być wyłącznie osoba fizyczna.

    Dodano: 29.11.2010. 16:17  


    Najnowsze