• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Problemy silnej oscylacji - od teorii do praktyki, Cambridge, Wlk. Brytania

    03.08.2010. 17:12
    opublikowane przez: Redakcja Naukowy.pl

    W dniach 12-17 września 2010 r. w Cambridge, Wlk. Brytania, odbędzie się spotkanie pt. "Problemy silnej oscylacji - od teorii do praktyki".

    Silna oscylacja pojawia się w wielu zjawiskach w nauce i inżynierii. Temat ten uważa się za trudny w analizie i obliczeniach.

    Jednocześnie przyciąga on wiele uwagi, głównie w obszarach takich jak analiza harmoniczna, analiza asymptotyczna, homogenizacja, geometria różniczkowa, teoria systemów hamiltonowskich oraz teoria systemów całkowalnych. Kiedy zjawisko zostaje ujęte z punktu widzenia matematycznego, często powstają na tej bazie algorytmy obliczeniowe.

    Organizatorem wydarzenia jest Europejska Fundacja Nauki we współpracy z Europejskim Towarzystwem Matematycznym, Europejskim Centrum Badań Matematycznych i Instytutem im. Izaaka Newtona.

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)
    W najbardziej ogólnym ujęciu metamodelowanie (zapisywane również jako meta-modelowanie) określa analizę, konstrukcję i rozwój ram, reguł, ograniczeń, modeli i teorii, które są użyteczne przy procesie modelowania w pre-definiowanej grupie problemów. Sam termin składa się z dwóch członów: meta i modelowanie. Meta-modelowanie wraz meta-modelami występuje w wielu dziedzinach wiedzy, np. w meta-nauce, meta-filozofii, meta-teorii czy też w teorii systemów. Termin ten występuje również w matematyce oraz często spotykany jest w informatyce. Analiza wymiarowa jest narzędziem powszechnie stosowanym w fizyce, chemii oraz inżynierii (głównie mechanicznej oraz chemicznej), opartym na teorii podobieństwa, stosowanym do wyznaczania warunków podobieństwa dynamicznego poprzez analizę wielkości fizycznych charakteryzujących dane zjawisko. Zbieżność prawie wszędzie ciągu funkcji względem (pewnej) miary to rodzaj zbieżności ciągów funkcyjnych rozważany w teorii miary i analizie matematycznej. Pojęcie to pojawiło się w sferze zainteresowań matematyków z początkiem XX wieku. W teorii prawdopodobieństwa i statystyce znane jest ono pod nazwą zbieżność z prawdopodobieństwem 1 lub prawie na pewno.

    Czynnikowa teoria osobowości Raymonda Cattella (Teoria cech indywidualnych) to jedna z najbardziej rozwiniętych, empirycznych teorii osobowości, tzw. teoria cech bazująca na analizie czynnikowej. Psychologia systemowa - orientacja psychologiczna ogólnej teorii systemów Ludwiga von Bertalanffyego. Jest to współczesny nurt stosowany głównie w psychoterapii rodzin.

    Andrzej Turowicz OSB (ur. 28 października 1904 w Przeworsku, zm. 25 listopada 1989 w Tyńcu) – polski matematyk oraz zakonnik benedyktyn (przyjął imię Bernard) i kapłan katolicki. W 1946 otrzymał stopień doktora filozofii na Uniwersytecie Jagiellońskim, na podstawie rozprawy O funkcjonałach multiplikatywnych ciągłych ("Annales Polonici Mathematici", XX, 1947). W 1963 uzyskał stopień doktora habilitowanego, w 1969 zostaje profesorem nadzwyczajnym w Instytucie Matematycznym PAN. Publikował prace dotyczące równań różniczkowych, analizy funkcjonalnej, algebry, teorii sterowania i teorii automatycznej regulacji, rachunku prawdopodobieństwa, logiki matematycznej, teorii gier i analizy numerycznej. Analiza punktów zbliżenia lub analiza Linnhoffa – metod optymalizacji systemów cieplnych stosowana w inżynierii procesowej. Polega ona na znajdywaniu układów o dużej wydajności cieplnej (charakteryzujących się dużym stopniem odzysku ciepła oraz małymi stratami cieplnymi) poprzez dobór odpowiednich warunków pracy oraz ewentualną modyfikację samego układu cieplnego. Cechą, której zawdzięcza swoją popularność jest jej prostota.

    Teoria homotopii - dział topologii algebraicznej powiązany z teorią homologii. Teoria homotopii zajmuje się badaniem "kształtu" przestrzeni topologicznych, porównując je z dobrze znanymi przestrzeniami typu (wielowymiarowe) kule, torusy. Podstawowym narzędziem tej teorii jest pojęcie homotopii i homotopijnej równoważności odwzorowań ciągłych. Teoria homotopii jest silnym narzędziem współczesnej geometrii różniczkowej. Początków teorii homotopii można doszukiwać się w pracach Henri Poincarégo. Spory wkład w rozwój tej teorii wniósł polski matematyk, Karol Borsuk. Teoria dystrybucji – dział matematyki leżący na pograniczu analizy funkcjonalnej i teorii funkcji rzeczywistych powstały w XX wieku, głównie za sprawą prac francuskiego matematyka Laurenta Schwartza. Zasadniczą ideą tej teorii jest pewne uogólnienie pojęcia funkcji (rzeczywistej) nazywane właśnie dystrybucją, które z punktu widzenia wyjściowej teorii nie ma własności przynależnych dobrze określonym funkcjom (np. na ogół dystrybucje nie mają „wartości w punkcie”), to z drugiej strony mają one doskonałe własności analityczne, m.in. mają pochodne dowolnego rzędu. Operowanie tego rodzaju obiektami odbiega od klasycznego, częstokroć korzysta się z transformaty Fouriera, czy splotu. Metody dystrybucyjne znajdują zastosowanie w teorii równań różniczkowych dając opis uogólnionych ich rozwiązań; dzięki temu doskonale nadają się one do opisu wielu skomplikowanych układów fizycznych.

    Forma modularna – w matematyce, funkcja zmiennej zespolonej spełniająca pewien warunek regularności, pewne równanie funkcyjne oraz o ograniczonym wzroście. Formy modularne można rozpatrywać jako daleko posunięte uogólnienie funkcji okresowych. Teoria form modularnych jest bardzo bogata i należy w zasadzie do analizy zespolonej, ale najważniejsze zastosowania te obiekty mają we współczesnej teorii liczb i teorii reprezentacji, tam też ujawniają swoje najgłębsze własności. Formy modularne w naturalny sposób pojawiają się w bardzo wielu gałęziach matematyki, np. w topologii algebraicznej czy teorii strun.

    Makrosocjologia – dział socjologii, którego przedmiotem zainteresowania są makrostruktury społeczne; także socjologiczna orientacja badawcza zajmująca się przede wszystkim analizą tak zwanych wielkich procesów i zjawisk społecznych oraz budowaniem na tej podstawie ogólnych teorii socjologicznych.

    Zbigniew Lipecki - polski matematyk specjalizujący się w teorii miary, teorii operatorów oraz analizie funkcjonalnej, w tym zagadnień związanych z pojęciem półwahania miary wektorowej oraz rozszerzeń funkcji zbiorów. W 1973 uzyskał stopień doktora w Instytucie Matematycznym PAN, a w roku 1985 habilitację tamże. Autor ponad 60 publikacji naukowych w recenzowanych czasopismach. Obecnie pracuje we wrocławskim oddziale IM PAN. Zbieżność ciągu funkcji według (pewnej) miary to rodzaj zbieżności ciągów funkcyjnych rozważany w teorii miary i analizie matematycznej. Pojęcie pojawiło się w sferze zainteresowań matematyków z początkiem XX wieku. W teorii prawdopodobieństwa i statystyce ten rodzaj zbieżności nazywany jest zbieżnością według prawdopodobieństwa lub zbieżnością stochastyczną.

    Metoda hipotetyczno-dedukcyjna jest to metoda, która polega na stwarzaniu nowej teoriihipotezy. Później dedukuje się jej konsekwencje, które można sprawdzić przez doświadczenie. Metoda ta jest oparta na rozumowaniu dedukcyjnym i jest niezawodna. Jeśli doświadczenie nie potwierdza teorii należy ją odrzucić. Punktem wyjścia są pewne prawa i ogólne zasady. Ich analiza umożliwia przewidywanie nowych zdarzeń i faktów, pozwala stworzyć nową teorię. Teoria ta po doświadczeniu weryfikacji okazuje się być prawdziwa lub nie. Pál Turán (wym.: ˈtuɾaːn) ur. 18 sierpnia 1910 roku w Budapeszcie, zm. 26 września 1976 roku w Budapeszcie) - węgierski matematyk, którego prace dotyczą głównie teorii liczb, analizy i teorii grafów. Był wieloletnim współpracownikiem Paula Erdősa, z którym w ciągu 46 lat opublikował 28 wspólnych artykułów.

    Dodano: 03.08.2010. 17:12  


    Najnowsze