• Artykuły
  • Forum
  • Ciekawostki
  • Encyklopedia
  • Nowe narzędzie zapewnia nowatorskie markery diagnostyczne

    13.01.2011. 16:26
    opublikowane przez: Redakcja Naukowy.pl

    Nowe techniki opracowane przez naukowców, których prace są finansowane ze środków unijnych, mogą pomóc w szybkiej analizie medycznych baz danych w celu zidentyfikowania markerów genetycznych i opracowania zindywidualizowanych leków dla alergików. Naukowcy z Akademii Sahlgrenska i Uniwersytetu w Gothenburgu w Szwecji twierdzą, że te nowatorskie metody mogą również przyczynić się do zmniejszenia liczby zwierząt wykorzystywanych w testach klinicznych.

    Wyniki badań zaprezentowane w czasopiśmie PLoS Computational Biology stanowią dorobek dwóch projektów finansowanych ze środków unijnych: COMPLEXDIS (Wyjaśnianie skomplikowanych chorób za pomocą teorii złożoności - od sieci do łóżka chorego) i MULTIMOD (Wielowarstwowe moduły sieciowe do identyfikacji markerów na potrzeby zindywidualizowanych leków w skomplikowanych chorobach).

    Projekt COMPLEXDIS otrzymał 1,81 mln EUR z tematu "Nowe i pojawiające się nauki i technologie" (NEST) Szóstego Programu Ramowego (6PR), a projekt MULTIMOD uzyskał wsparcie w kwocie 2,53 mln EUR z tematu "Zdrowie" Siódmego Programu Ramowego (7PR).

    Zespół wskazuje, że przeprowadzone prace posuwają naprzód analizowanie danych zgromadzonych w medycznych bazach danych zarejestrowanych w bazie PubMed, która zawiera wyniki badań wielu chorych oraz dane z mikromacierzy innej, dużej bazy danych. Naukowcy wykorzystują mikromacierze, ponieważ umożliwiają one przeprowadzenie jednoczesnej oceny wszystkich 20.000 genów człowieka pod kątem różnych chorób.

    Badacze z Norwegii, Szwecji i Włoch opracowali metody obliczeniowe do ustalania, jak układ immunologiczny organizmu jest kontrolowany przez zmianę w interakcji między różnymi genami w limfocytach (rodzaj białych krwinek). Analiza 18 milionów streszczeń artykułów zamieszczonych w bazie PubMed dostarczyła naukowcom informacji niezbędnych do zidentyfikowania genów, które z kolei pomogły im opracować model sieci interakcji między tymi genami.

    "Model można porównać do płytki drukowanej z obwodem w limfocycie, który komórka wykorzystuje do podejmowania decyzji o aktywowaniu lub stłumieniu układu immunologicznego" - wyjaśnia jeden z autorów raportu z badań, dr Mikael Benson z Jednostki Biologii Systemów Klinicznych Akademii Sahlgrenska oraz pracownik Queen Silvia Children's Hospital.

    "Te decyzje są podejmowane nieustannie, ponieważ limfocyty są stale wystawione na działanie różnych cząstek, choćby na przykład w czasie oddychania. Niektóre z cząstek mogą być niebezpieczne i wymagają podjęcia decyzji o mobilizacji układu immunologicznego. Jednakże czasami podejmowane są błędne decyzje, które mogą doprowadzić do rozmaitych zaburzeń, takich jak alergia czy cukrzyca."

    Zespół przeprowadził symulacje danych, aby ustalić, w jaki sposób model sieci zareagował na powtarzającą się ekspozycję na cząstki. Naukowcy stwierdzili, że pojawiły się cztery schematy reakcji, a mianowicie jedna tłumiąca aktywność układu immunologicznego i trzy aktywujące go na różne sposoby.

    "Odkryliśmy, że geny modelu zareagowały w limfocytach pacjentów cierpiących na różne choroby immunologiczne" - mówi dr Benson. "Będziemy wykorzystywać model do identyfikacji markerów diagnostycznych, aby zindywidualizować leki testowane w ramach badań klinicznych alergików."

    Naukowiec z Akademii Sahlgrenska przewiduje, że metody te odegrają kluczową rolę w przyszłych badaniach, w szczególności zważywszy na rosnącą ilość informacji w medycznych bazach danych. "Metody te mogą ograniczyć konieczność prowadzenia testów na zwierzętach i pomóc oszczędzić sporo czasu i pieniędzy" - podsumowuje dr Benson. "Mogą również oznaczać szybsze i lepiej opracowane doświadczenia, których wyniki mogą przynieść nowe informacje na temat markerów diagnostycznych czy nowych leków."

    Za: CORDIS

    Czy wiesz ĹĽe...? (beta)

    System informacji marketingowych (SIM) - sformalizowany i powiązany wewnętrznie zespół osób, urządzeń oraz procedur stworzonych w celu zapewnienia uporządkowanego dopływu trafnych informacji ze źródeł wewnętrznych i zewnętrznych na potrzeby podejmowania decyzji marketingowych. To metoda ciągłego planowania, zbierania i przechowywania oraz analizy danych. System informacji marketingowej ułatwia podejmowanie dwóch kategorii decyzji: programowanych i nieprogramowanych. SIM powinien być okresowo weryfikowany w celu oceny wartości dostarczonych informacji i sformułowania zapotrzebowania na nowe informacje. Wyniki badań marketingowych i informacje uzyskane z systemu informacji marketingowej są względem siebie komplementarne. Ze względu na potrzebę sprawnego przetwarzania dużej liczby danych, SIM funkcjonuje zazwyczaj przy wykorzystaniu techniki komputerowej.

    Nadmierne dopasowanie, przeuczenie, przetrenowanie, overfitting – różne, stosowane w statystyce nazwy tego samego zjawiska, zachodzącego gdy model statystyczny ma zbyt dużo parametrów w stosunku do rozmiaru próby na podstawie której był konstruowany. Absurdalne i fałszywe modele mogą świetnie pasować do danych uczących gdy model ma wystarczającą złożoność, jednak będą dawały gorsze wyniki, gdy zastosujemy je do danych, z którymi się nie zetknęły podczas uczenia.

    Chemometria - dział chemii zajmujący się wykorzystaniem metod komputerowych, statystycznych, matematycznych oraz symbolicznych w analizowaniu danych chemicznych. Metody chemometryczne mogą również służyć do analizy danych: fizycznych, medycznych i wszelkich innych. Chemometrię stosuje się do projektowania lub wyboru optymalnych procedur eksperymentalnych, aby pozyskać maksimum informacji poprzez analizę danych a także w celu nabywania wiedzy u układach (systemach) chemicznych i nie tylko chemicznych.

    Nadmierne dopasowanie, przeuczenie, przetrenowanie, overfitting – różne, stosowane w statystyce nazwy tego samego zjawiska, zachodzącego gdy model statystyczny ma zbyt dużo parametrów w stosunku do rozmiaru próby na podstawie której był konstruowany. Absurdalne i fałszywe modele mogą świetnie pasować do danych uczących gdy model ma wystarczającą złożoność, jednak będą dawały gorsze wyniki, gdy zastosujemy je do danych, z którymi się nie zetknęły podczas uczenia.

    DMP (Data Management Platform) jest to platforma do zarządzania danymi z różnych źródeł, w celu przetworzenia ich i udostępnienia dla platform zakupowych (DSP) i sprzedażowych (SSP). Daje centralną kontrolę nad procesami przetwarzania i analizy danych oraz realizacji kampanii, umożliwiając optymalizację działań marketingowych ukierunkowaną na dotarcie do większej liczby pożądanych klientów. Dane z platformy zawierają informacje, które reklamodawcy mogą wykorzystać do podjęcia decyzji czy chcą emitować reklamę właśnie temu użytnikowi.

    Entrez – system służący do uzyskiwania danych, rozwijany przez National Center for Biotechnology Information (NCBI). Zapewnia zintegrowany dostęp do różnych dziedzin danych, takich jak literatura, sekwencje nukleotydów i białek, kompletne genomy, czy struktury trójwymiarowe. Zaawansowana opcja wyszukiwania podaje nie tylko dokładny wynik wyszukiwania, lecz również związane rekordy z tej samej domeny, które nie mogły być uzyskane w inny sposób, oraz powiązanych rekordów z innych domen. Entrez obsługuje wiele baz danych, m.in.: PubMed, PubMed Central, OMIM, OMIA, PubChem Compound, PubChem Substance. Entrez jest jednym z najpowszechniej używanych systemów uzyskiwania danych z biologicznych internetowych baz danych.

    Transaction Processing Performance Council (TPC) jest organizacją typu non-profit założoną w 1985 w celu zdefiniowania testów wydajnościowych w dziedzinie przetwarzania danych. Organizacja ta publikuje wyniki testów, które dzięki dobrze zdefiniowanej metodyce są uważane za obiektywne i weryfikowalne. Wyniki testów TPC są powszechnie stosowane dla porównywania wydajności systemów przetwarzania danych. Specyficzną cechą tych testów jest podawanie wyników, nie tylko w ilości transakcji w jednostce czasu, ale też obliczanie kosztu pojedynczych transakcji bazując na cenie katalogowej użytego systemu. Testy wydajnościowe TPC są stale rozwijane by uzyskać wyniki w sytuacjach zbliżonych do tych, w jakich pracują systemy podczas komercyjnego stosowania przez organizacje zajmujące się przetwarzaniem danych. Stąd na przykład wprowadzenie testów w podziale według kategorii "wielkość bazy danych", gdy eksperci stwierdzili, że liczba rekordów w bazie danych może istotnie wpływać na uzyskiwane wyniki wydajnościowe.

    Dodano: 13.01.2011. 16:26  


    Najnowsze