• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Nowe technologie dla komunikacji bezprzewodowej

    06.02.2010. 11:20
    opublikowane przez: Piotr aewski-Banaszak

    Obserwowany w ostatnich latach rozwój technologii komunikacji bezprzewodowej i konieczność zwiększania prędkości transmisji w łączności radiowej wymusza wykorzystanie pasma mikrofalowego jako medium - uważa dr inż. Adam Lamęcki z Wydziału Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej. Jego projekt badawczy, poświęcony projektowaniu złożonych układów, zostanie sfinansowany ze środków programu LIDER Narodowego Centrum Badań i Rozwoju.

    Bardzo ważnym składnikiem części wysokiej częstotliwości systemów komunikacji bezprzewodowej, obecnym zarówno w torze nadawczym jak i odbiorczym są układy podziału w dziedzinie częstotliwości: filtry, dipleksery czy multipleksery mikrofalowe. Pozwalają one na ograniczenie wpływu działania innych systemów działających na sąsiednich częstotliwościach oraz oddzielenie toru nadawczego i odbiorczego, które korzystają najczęściej ze wspólnej części antenowej.

    Jak tłumaczy naukowiec, filtry i multipleksery stosowane w systemach komunikacyjnych zbudowane są z wielu rezonatorów mikrofalowych. Liczba rezonatorów określa rząd filtru. Aby zapewnić wysoką selektywność, rząd filtru powinien być jak największy. Rzędy obecnie wykorzystywanych układów sięgają kilkunastu.

    W przypadku di- i triplekserów układy te składają się odpowiednio z dwóch lub trzech filtrów połączonych obszarem wspólnego złącza. Projektowanie tak złożonych układów wymusza stosowanie symulatorów elektromagnetycznych na etapie analizy układu.

    Analiza taka nawet przy użyciu najnowszych dostępnych wersji narzędzi komercyjnych jest bardzo żmudna i długotrwała, wymaga także bardzo dużych zasobów sprzętowych i dużej ilości pamięci operacyjnej. Skutkuje to wysokim kosztem projektu, związanym z długim czasem poświęconym na projekt przez wysoko wykwalifikowaną kadrę inżynierską.

    Dodatkowo, dostępne komercyjne symulatory elektromagnetyczne nie posiadają zaawansowanych technik analizy i końcowej optymalizacji dedykowanych układom filtrującym. W efekcie, w przypadku optymalizacji tradycyjnymi technikami tak złożonych układów jak multipleksery, czas optymalizacji sięgać może wielu tygodni - bez gwarancji powodzenia.

    Celem projektu prowadzonego przed dr. inż. Lamęckiego jest stworzenie i zastosowanie nowych, szybkich technik analizy i optymalizacji złożonych układów filtrujących, które pozwolą na znaczne skrócenie czasu poświęconego na projektowanie wspomagane komputerem pasywnych układów mikrofalowych: filtrów i multiplekserów.

    Jak podkreśla naukowiec, praktyczne wdrożenie wyników jego badań możliwe jest na różnych płaszczyznach: od możliwości świadczenia usług projektowych dla zainteresowanych podmiotów komercyjnych przez tworzenie na zamówienie oprogramowania wspierającego projektowanie i optymalizację zadanej klasy układów multiplekserów, do bezpośredniej implementacji opracowanych technik w komercyjnych narzędziach projektowych.

    W pierwszej edycji programu "Lider" zainicjowanego przez Narodowe Centrum Badań i Rozwoju wybrano 23 spośród 202 zgłoszonych wniosków. Laureaci wykazali, że są przygotowani do podjęcia samodzielnej pracy badawczej wraz z utworzonymi przez siebie zespołem nad projektem, który znajdzie zastosowanie w praktyce. Na jego realizację każdy z nich otrzyma nawet do 1 mln zł.

    Źródło:
    PAP - Nauka w Polsce

    Czy wiesz ĹĽe...? (beta)
    Biologia syntetyczna – dyscyplina naukowa stanowiąca połączenie biologii molekularnej i inżynierii, której celem jest projektowanie i tworzenie sztucznych systemów biologicznych wzorowanych na naturalnych. W odróżnieniu od klasycznej inżynierii genetycznej biologia syntetyczna kładzie duży nacisk na racjonalne projektowanie nowych systemów oraz intensywne wykorzystanie technik modelowania matematycznego w celu przewidzenia zachowania się układu oraz optymalizacji jego działania. Communicating Sequential Processes (CSP) – formalny język służący do opisywania wzorców interakcji w równoległych systemach obliczeniowych. CSP został po raz pierwszy opisany przez C. A. R. Hoare jednakże od czasu pierwszej publikacji został bardzo rozbudowany. CSP znajduje praktyczne zastosowanie jako narzędzie do określania i weryfikowania różnych aspektów funkcjonowania systemów równoległych. CSP jest cały czas przedmiotem aktywnych badań, w tym także pracy mającej na celu zwiększenie zakresu praktycznego zastosowania CSP (np. zwiększenie ilości systemów, które mogą być za jego pomocą analizowane). Zespół filtrów (inna nazwa: bank filtrów) – układ elektroniczny lub algorytm będący strukturą o wielu wejściach lub wielu wyjściach złożoną z filtrów pasmowych. Podstawowym zadaniem zespołu filtrów jest dekompozycja sygnału na składowe należące do różnych przedziałów częstotliwości nazywanych podpasmami lub subpasmami. Pożądana jest taka budowa zespołu filtrów, aby możliwe było odtworzenie całego sygnału ze złożenia sygnałów podpasmowych. Oznacza to, że poszczególne podpasma powinny być rozłączne w dziedzinie częstotliwości (z dokładnością do obszaru wzajemnego zachodzenia na siebie charakterystyk pojedynczych filtrów) i pokrywać pełen zakres częstotliwości sygnału wejściowego.

    Analiza punktów zbliżenia lub analiza Linnhoffa – metod optymalizacji systemów cieplnych stosowana w inżynierii procesowej. Polega ona na znajdywaniu układów o dużej wydajności cieplnej (charakteryzujących się dużym stopniem odzysku ciepła oraz małymi stratami cieplnymi) poprzez dobór odpowiednich warunków pracy oraz ewentualną modyfikację samego układu cieplnego. Cechą, której zawdzięcza swoją popularność jest jej prostota. PLC (Programowalny Sterownik Logiczny) (ang. Programmable Logic Controller) – uniwersalne urządzenie mikroprocesorowe przeznaczone do sterowania pracą maszyny lub urządzenia technologicznego. Sterownik PLC musi zostać dopasowany do określonego obiektu sterowania poprzez wprowadzenie do jego pamięci żądanego algorytmu działania obiektu. Cechą charakterystyczną sterowników PLC odróżniającą ten sterownik od innych sterowników komputerowych jest cykliczny obieg pamięci programu. Algorytm jest zapisywany w dedykowanym sterownikowi języku programowania. Istnieje możliwość zmiany algorytmu przez zmianę zawartości pamięci programu. Sterownik wyposaża się w odpowiednią liczbę układów wejściowych zbierających informacje o stanie obiektu i żądaniach obsługi oraz odpowiednią liczbę i rodzaj układów wyjściowych połączonych z elementami wykonawczymi, sygnalizacyjnymi lub transmisji danych.

    AIX (ang. Advanced Interactive eXecutive) to odmiana systemu Unix tworzona przez firmę IBM na podstawie zarówno SysV, jak i BSD. W systemie zostały zaimplementowane także technologie z systemów mainframe, które zwiększają jego niezawodność i dostępność. System operacyjny AIX jest przeznaczony dla serwerów firmy IBM z procesorami z rodziny Power (RS/6000, pSeries, Power System). Wczesne wersje systemu AIX były też instalowane na komputerach Macintosh firmy Apple wyposażonych w procesory POWER. Obecnie dostępna jest bardzo szeroka gama systemów serwerowych wyposażonych w procesory Power, od najwiekszych Power System 795 (do 256 układów POWER7) do serwerów typu blade (najmniejszy dostępny serwer JS12 wyposażony w 2 układy POWER6). O ile cały czas dostępna jest możliwość natywnej instalacji (bezpośrednio na serwerze), to jednak jest ona stosowana stosunkowo rzadko, a preferowane są raczej środowiska zwirtualizowane, wykorzystujące hiperwizor PowerVM. W przypadku dużych maszyn (np. p590) jest to rozwiązanie domyślne. Kompilator logiczny (ang. logic compiler) - rodzaj oprogramowania wspomagającego projektowania programowalnych układów logicznych. To oprogramowanie na podstawie dostarczonego przez danego użytkownika opisu działania układu wyznacza określoną mapę połączeń w elemencie PLD. Zaawansowane kompilatory logiczne akceptują na wejściu opisy schematów elementów TTL bądź specyfikacje czasu, które umożliwiają automatyczny podział większych układów logicznych na elementy PLD, a także optymalizację doboru elementów. Wszelkie działania kompilatora logicznego doprowadzają do powstania programu, który steruje pracą programatora wszystkich układów.

    Matryca logiczna projektu - jest kompleksowym narzędziem stosowanym na etapie planowania działań projektowych, jak i późniejszego zarządzania realizacją projektu. W syntetyczny sposób przedstawia planowaną drogę realizacji i weryfikacji projektu. Formalnie została przejęta przez Komisję Europejską jako narzędzie ułatwiające projektowanie w 1992r. Niezależnie od rodzaju projektu dla którego matryca jest sporządzana zawiera ona zawsze elementy służące: CMP (ang. chip-level multiprocessing) to określenie konstrukcji mikroprocesorów, składających się z dwóch lub większej liczby układów scalonych, umieszczanych na jednej płytce krzemowej. Tego typu rozwiązania mają możliwość efektywnego zwiększenia wydajności serwerów bez konieczności angażowania kilku odrębnych procesorów jak to ma miejsce w tradycyjnych rozwiązaniach, aczkolwiek technologia ta jest dopiero na etapie wdrażania i obecnie można ją spotkać głównie w pilotażowych rozwiązaniach (największe problemy stwarza utworzenie efektywnego systemu przepływu danych w elementach półprzewodnikowych). W przyszłości komputery oparte na systemach CMP znajdą prawdopodobnie zastosowanie głównie w rozwiązaniach wymagających bardzo dużej wydajności i szczególnie wysokiej dostępności, np. w superserwerach do analizy danych sejsmicznych, komputerach wykorzystywanych do analizy genów czy zaawansowanych symulatorach graficznych. Przykładem procesorów zbudowanych w oparciu o technologię CMP mogą być jednostki Sun MAJC-5200 i IBM Power4. Dzisiaj możemy spotkać w popularnych Pentium Dual-Core, Core 2 Duo, Core 2 Quad, AMD z serii X2, X3, X4 itp.

    Instytut Technik Innowacyjnych EMAG jest instytutem badawczym zajmującym się kompleksowym opracowywaniem a także wdrażaniem nowoczesnych urządzeń, systemów oraz technologii. Realizator prac naukowych, badawczo-rozwojowych, konstrukcyjnych i ekspertyz w zakresie elektrotechniki, automatyki przemysłowej, telekomunikacji, systemów monitorowania i urządzeń bezpieczeństwa, systemów sterowania procesami, informatyki technicznej, sieciowych systemów informacyjnych, racjonalnego użytkowania paliw i energii oraz ochrony środowiska. Ofertę EMAG-u uzupełniają: badania specjalistyczne, atestacyjne i certyfikacyjne przeprowadzane w Centrum Badań i Certyfikacji (m.in. w unikatowej Pracowni Badań Kompatybilności Elektromagnetycznej) posiadającym akredytacje PCA, małoseryjna produkcja aparatury i urządzeń oraz usługi serwisowe. EMAG posiada własny ośrodek szkolenia oraz wydaje własne czasopismo naukowo-techniczne "Mechanizacja i Automatyzacja Górnictwa", poradniki, instrukcje i monografie. EMAG to lider wielu segmentów rynku - m.in. w zakresie aparatury i systemów bezpieczeństwa i monitorowania zagrożeń naturalnych, systemów automatyki kontroli parametrów jakościowych węgla. Misją i głównym celem Instytutu EMAG jest opracowywanie nowych innowacyjnych rozwiązań oraz doskonalenie istniejących urządzeń, technologii i systemów przyczyniających się do poprawy efektywności procesów produkcyjnych, wzrostu bezpieczeństwa pracy i jakości życia. Siedziba Instytutu Technik Innowacyjnych EMAG mieści się w Katowicach.

    Analizy przestrzenne lub przestrzenne statystyki – pojęcie z zakresu statystyki. Formalne techniki badania danych używające ich topologicznych, geometrycznych lub geograficznych właściwości. Zwrot odnosi się do różnych technik, z których wiele znajduje się jeszcze we wczesnej fazie rozwoju. Wykorzystują one różne metody analityczne i stosowane są w różnorodnych dziedzinach - od astronomii (badania dotyczące rozmieszczenia galaktyk w kosmosie) po produkcję układów scalonych (algorytmy rozmieszczenia i połączeń elementów w złożonych strukturach). Sformułowanie to używane jest często w bardziej zawężonym znaczeniu w odniesieniu do konkretnej techniki stosowanej w określonej dziedzinie badań, np. do geostatystyki.

    Wikipedystka:Jestemzhongkongu/brudnopis: Stephen Smale wymyślił strukturę podkowy w trakcie badań nad wymuszonym oscylatorem van der Pola. Uzyskał wówczas modelowy układ o podobnej geometrii, ale prostszym równaniu. Dzięki podkowie Smale był w stanie badać chaotyczne zachowania układów dynamicznych. Później używał jej do objaśniania wysnutych przez niego wniosków. Jego badania zapoczątkowały lawinę pomysłów dotyczących teorii układów dynamicznych, które, gdyby nie odwzorowanie podkową, uważane obecnie za ikonę teorii chaosu, nie miałyby racji bytu. Arduino – platforma dla systemów wbudowanych oparta na prostym projekcie Open Hardware przeznaczonym dla mikrokontrolerów montowanych w pojedynczym obwodzie drukowanym, z wbudowaną obsługą wejścia/wyjścia oraz standaryzowanym językiem programowania. Język programowania Arduino jest oparty na środowisku Wiring i zasadniczo na języku C/C++ (kilka prostych przekształceń kodu wykonywane przed przejściem do avr-gcc). Celem projektu Arduino jest przygotowanie narzędzi – ogólnodostępnych, tanich, nie wymagających dużych nakładów finansowych, elastycznych i łatwych w użyciu przez hobbystów. Częściowo, Arduino stanowi również alternatywę dla osób, które nie mają dostępu do bardziej zaawansowanych kontrolerów, wymagających bardziej skomplikowanych narzędzi.

    Częstotliwość graniczna filtru – wartość graniczna częstotliwości, dla której kończy się umowne pasmo przepustowe filtru. W popularnej interpretacji, jest to częstotliwość, poza którą tłumienie wnoszone przez filtr staje się większe niż 3 dB w stosunku do tłumienia wewnątrz pasma przepustowego, które idealnie powinno wynosić 0 dB. W ścisłej definicji, częstotliwość graniczna pasma przepustowego może być wyznaczona przez punkt o dowolnym tłumieniu, które dla danego filtru wyznaczają gabaryty filtru. Sampling, sampling probabilistyczny – w archeologii, jedna z technik prowadzenia badań powierzchniowych. Przedmiotem badań są fragmenty interesującego nas rejonu na których prowadzi się szczegółowe badania. W przypadku kiedy zachodzi konieczność szybkiego przeprowadzenia badań i równocześnie brakuje środków finansowych lub czasu, archeolodzy decydują się na zastosowanie tego rodzaju badań.

    Proteus Design Suite – pakiet oprogramowania EDA firmy Labcenter electronics. W jego skład wchodzą aplikacje wspomagające tworzenie schematów układów elektronicznych oraz projektowanie płytek drukowanych. Schemat blokowy (schemat strukturalny, ang. block diagram) - w teorii sterowania użyteczna i prosta graficzna metoda analizy układów regulacji. Przy analizie i projektowaniu układów często bardzo użyteczne jest graficzne przedstawienie modelu strukturalnego układu można wówczas stworzyć model w postaci schematu blokowego.

    Dodano: 06.02.2010. 11:20  


    Najnowsze