• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Inteligentniejsze inwestowanie w klimatologię na rzecz długoterminowych oszczędności

    21.08.2009. 15:11
    opublikowane przez: Maksymilian Gajda

    Koszty dostosowania się do zmian klimatu można by zmniejszyć o 20% na całym świecie, jeżeli inwestycje w celowe badania zostaną uruchomione już teraz. Takie wnioski płyną z badań przeprowadzonych przez brytyjskich naukowców nad prognozami zmian temperatury, których wyniki zostały opublikowane w Bulletin for the American Meteorological Society.

    Badania przynoszą społeczeństwu rozwiązania problemów, przed którymi dzisiaj stajemy. Mogą również wyposażyć nas w lepszą wiedzę na temat działań, jakie należy podjąć, aby uniknąć problemów, które mogą pojawić się w przyszłości. W tym zakresie, instytucje finansujące takie jak Komisja Europejska wyraźnie podjęły zobowiązanie do wspierania badań i przekształcania nowych odkryć w produkty i usługi, które przynoszą korzyści społeczeństwu.

    W czasie ostatnich dwudziestu lat zjawisko zmian klimatu, zarówno tych zachodzących obecnie, jak i tych przewidywanych w perspektywie krótko i długoterminowej, zostało dobrze udokumentowane w domenie publicznej. Rządy, instytucje finansowe i naukowcy na całym świecie coraz bardziej koncentrują swoją uwagę na tym globalnym wyzwaniu.

    Coraz bardziej, ale czy precyzyjnie? Istotą prognozowania jest o zmniejszenie niepewności, co do możliwości wydarzenia się jakiejś rzeczy w przyszłości lub braku takiej możliwości.

    Wyniki badań przeprowadzonych przez naukowców z Krajowego Centrum Badań Atmosferycznych sugerują, że inwestycje w klimatologię mogą zmniejszyć tę niepewność i umożliwić jeszcze trafniejsze prognozy. To z kolei pozwoliłoby zmniejszyć obciążenia finansowe związane z przystosowaniem się do globalnych zmian w perspektywie długofalowej.

    Zdaniem współautorów raportu, Eda Hawkinsa i Rowana Suttona: "Zważywszy na fakt, że koszty dostosowania są znaczne, a większa niepewność, co do przyszłości klimatu wiąże się prawdopodobnie z wyższymi kosztami przystosowania, zmniejszenie niepewności przewidywań klimatycznych może mieć ogromną wartość ekonomiczną".

    Zespół wykorzystał pakiet modeli klimatycznych w celu zidentyfikowania głównych przyczyn niepewności w prognozach dotyczących regionalnych zmian temperatury. Mimo iż podobne badania były prowadzone w przeszłości, te najnowsze stanowią pierwsze takie przedsięwzięcie w skali regionalnej na całym świecie.

    Naukowcy są przekonani, że istnieją trzy główne źródła niepewności w prognozach klimatycznych: wewnętrzna zmienność (wahania pojawiające się naturalnie, a nie jako wynik oddziaływania człowieka), niepewność modelu (różne modele symulują różne zmiany klimatu) i niepewność scenariusza (np. niepewność w zakresie przyszłych emisji gazów cieplarnianych). Ich odkrycia pokazują, że wewnętrzna zmienność i niepewność modelu będą głównymi źródłami niepewności dla wszystkich regionów przez kolejne 40 lat.

    Jak mówi dr Hawkins: "Wyniki naszych prac sugerują, że inwestycje na przykład w obserwacje oceaniczne i ich wykorzystanie w ustaleniu początkowych warunków modeli klimatycznych i weryfikowaniu prognoz, mogą się zwrócić najlepiej poprzez udoskonalone modele i prognozy klimatyczne na kolejne 5 do 50 lat. Co najmniej do roku 2050 dominantą niepewności będą nieznane przyszłe emisje gazów cieplarnianych."

    Źródło: CORDIS

    Więcej informacji:

    Bulletin for the American Meteorological Society:
    http://www.ametsoc.org/PUBS/bams/

    Krajowe Centrum Badań Atmosferycznych:
    http://www.ncas.ac.uk/

    Źródło danych: Bulletin for the American Meteorological Society; Krajowe Centrum Badań Atmosferycznych
    Referencje dokumentu: Hawkins E., et al. (2009) The potential to narrow uncertainty in regional climate predictions. Bulletin for the American Meteorological Society. Publikacja internetowa z dnia 19 sierpnia; DOI: 10.1175/2009BAMS2607.1.

    Czy wiesz ĹĽe...? (beta)
    Niepewność pomiaru – pojęcie z zalecanego od 1993 r. przez międzynarodowe organizacje standaryzacyjne sposobu wyznaczania wyniku pomiaru zwanego rachunkiem (teorią) niepewności i oznaczające parametr związany z wartościami (serią) pomiaru danej wielkości fizycznej w stałych warunkach, które można w uzasadniony sposób przypisać wartości mierzonej, i charakteryzujący ich rozrzut w przedziale, wewnątrz którego można z zadowalającym prawdopodobieństwem usytuować wartość wielkości mierzonej. Niepewność pomiaru wynika z tego, że zawsze jest on niedokładny, co nie wynika z niedoskonałości aparatury i zmysłów obserwatora, ale jest nieodłączną cechą takiej operacji. Niepewność standardowa pomiaru – niepewność wyniku pomiaru wyrażona w formie odchylenia standardowego (bądź estymaty odchylenia standardowego). Oznaczana zwykle jako uc (y). Niepewność – stan psychiczny, w którym ktoś nie jest pewny prawdziwości danego zdania lub nie jest pewny skutków jakiegoś działania.

    Niepewność rozszerzona pomiaru – miara niepewności określająca przedział wokół wyniku pomiaru, który obejmuje dużą część rozkładu wartości, które w uzasadniony sposób (z określonym prawdopodobieństwem) można przypisać mierzonej wielkości. Rachunek (teoria) niepewności — zalecany od 1995 r. przez międzynarodowe organizacje standaryzacyjne sposób wyznaczania wyniku pomiaru operujący pojęciem niepewność pomiaru zamiast tzw. klasycznego pojęcia błędu pomiaru używanego w rachunku błędów.

    Współczynnik rozszerzenia (także: współczynnik pokrycia lub współczynnik objęcia) – w metrologii: współczynnik liczbowy, przez który należy pomnożyć złożoną niepewność standardową pomiaru uc(y) dla określenia szerokości przedziału wokół poprawionego wyniku pomiaru obejmującego mierzoną wartość z zadanym prawdopodobieństwem. Połowę szerokości tego przedziału nazywamy niepewnością rozszerzoną pomiaru i oznaczamy symbolem U . Warunki odniesienia - zbiór wartości określonych ze znaną niepewnością, jakie powinny mieć wielkości wpływające na wynik pomiaru.

    Sterowanie stochastyczne - gałąź teorii sterowania, która zajmuje się zagadnieniami występowania niepewności w układach regulacji. Przeciwieństwem układów stochastycznych są układy deterministyczne (czyli takie, w których niepewność nie występuje). Sterowanie stochastyczne – gałąź teorii sterowania, która zajmuje się zagadnieniami występowania niepewności w układach regulacji. Przeciwieństwem układów stochastycznych są układy deterministyczne (czyli takie, w których niepewność nie występuje).

    Model nominalny - termin używany w teorii sterowania, model nominalny to model deterministyczny (czyli nie probabilistyczny), którego niepewność określono konkretnym scenariuszem (np. podając przedziały niepewności parametrów).

    Wartość (wielkość, liczba) niemianowana – wartość nieposiadająca jednostki; najczęściej używana do przedstawienia wzajemnego stosunku dwóch wielkości (np. niepewności względnej, liczba okrążeń w ruchu po okręgu).

    Fizyka doświadczalna – sposób uprawiania fizyki polegający na wykonywaniu pomiarów. Pomiar – ilościowe porównanie wartości wielkości mierzonej z wzorcem – powinien być powtarzalny w czasie w granicach niepewności pomiarowej. Anomia (gr. a- = "bez", nomos = "prawo") - pojęcie wprowadzone do socjologii przez Emila Durkheima (1858-1917) oznaczające pewnego rodzaju stan niepewności w systemie aksjonormatywnym spowodowany najczęściej jego transformacją. Społeczeństwo w stanie anomii nie potrafi wytworzyć spójnego systemu norm i wartości, który stanowiłby dla jednostek klarowne wytyczne działań. Jednostka egzystująca w takim społeczeństwie odczuwa niepewność i zagubienie. Dlatego też w ujęciu Durkheima anomia może przyczyniać się do zachowań samobójczych.

    Spekulacja – jeden z rodzajów transakcji kupna lub sprzedaży określonej rzeczy. Celem spekulacji jest osiągnięcie określonego dochodu poprzez wykorzystanie przewidywanych zmian cenowych w określonym czasie pomiędzy danym terminem zawarcia określonej umowy, a jej terminem realizacji. Przedmiotami tych transakcji są najczęściej dobra materialne, nieruchomości oraz papiery wartościowe. Cechą spekulacji, w odróżnieniu od np. arbitrażu jest niepewność. Climateprediction.net – jeden z projektów naukowych, wykorzystujących możliwości technik przetwarzania rozproszonego. Jego celem jest przewidywanie zmian klimatycznych zachodzących na Ziemi. Eksperyment ma również na celu stworzenie lepszych, bardziej niezawodnych modeli matematycznych, które umożliwią w przyszłości długoterminowe prognozowanie pogody, z większą dokładnością. Jest to największy z dotychczas przeprowadzonych eksperymentów tego typu. Do marca 2005 roku, przetestowano ponad 70 tysięcy modeli klimatycznych.

    Liniowa Cząstkowa Informacja (zwana po angielsku teorią Linear Partial Information lub po prostu teorią LPI) - jest metodą podejmowania decyzji, bazujących na niepełnej informacji. Teoria LPI została opracowana w roku 1970 przez polsko-szwajcarskiego matematyka Edwarda Koflera (1911 - 2007) dla uproszczenia procesów decyzyjnych. W porównaniu z innymi metodami system LPI jest prostszy algorytmicznie i bardziej praktyczny, szczególnie w procesach decyzyjnych. Zamiast stosowania często wątpliwych funkcji charakterystycznych decydent linearyzuje jakikolwiek element niepewności przez wprowadzenie liniowych ograniczeń elementów niepewności: rozkładów prawdopodobieństw albo średnich ważonych. W procesie LPI decydent linearyzuje wszelkie elementy niepewności zamiast wprowadzać funkcje charakterystyczne. Linearyzacji dokonuje się przez wprowadzanie stochastycznych lub niestochastycznych zależności LPI. Układy mieszane składające się ze stochastycznych i niestochastycznych elementów niepewności są najczęściej podstawą procesu LPI. Stosując metodę LPI można rozwiązać niepewną sytuację decyzyjną opierając się na liniowej logice rozmytej (ang.: Fuzzy Logic).

    Dodano: 21.08.2009. 15:11  


    Najnowsze