poniedziałek, 29 stycznia 2018

Wyznaczanie trendów w nauce:Praktyczne kroki w przygotowaniach do załogowego lotu na Marsa

NASA ma nadzieję wysłać załogową misję na Marsa w połowie lat 30 XXI w.Na planecie,gdzie temperatury spadają do -125°C wytwarzanie energii stanowi poważny problem,w związku z czym testowane będą nowe technologie.Ponieważ najlepsze urządzenia potrzebują ludzi,którzy będą z nich korzystać,prowadzone są też doświadczenia testujące ich wytrzymałość.W odpowiedzi na problem wytwarzania energii,NASA przetestuje we wrześniu,na pustyni Nevada,dwumetrowe reaktory opracowane w ramach projektu Kilopower.Nastąpi to 52 lata po umieszczeniu na orbicie pierwszego reaktora jądrowego.Według cytatu z brytyjskiego magazynu Times,Lee Mason,kierownik projektu w centrum NASA Glenn Research Center w stanie Ohio,powiedział:„Jest to tak naprawdę pierwszy raz[od lat 60 XX w.],kiedy NASA na serio pracuje nad reaktorem do zastosowań kosmicznych”.Ostatnim reaktorem rozszczepieniowym testowanym przez NASA był Systems for Nuclear Auxiliary Power,nazwany SNAP,w latach sześćdziesiątych XX w.Ten układ radioizotopowych termogeneratorów zasilał dziesiątki sond kosmicznych, w tym robotycznego łazika Curiosity.

Opublikowany niedawno w brytyjskim czasopiśmie »Independent« artykuł wyjaśnia, że energia elektryczna potrzebna jest do wytwarzania paliwa, powietrza i wody, oraz do ładowania akumulatorów łazików i innych urządzeń. Jeżeli te jednostki przejdą testy projektowe i wydajnościowe, NASA przetestuje je na Marsie. W jednym z raportów agencji czytamy, że podczas załogowej wyprawy na Marsa potrzebne będzie 40 kilowatów energii. Obecnie opracowywane reaktory są w stanie wytworzyć 10 kilowatów, więc potrzebne będą cztery.

W wywiadzie udzielonym Fox News Lee Mason stwierdził, że jednostki zostaną wystrzelone „na zimno”: „Podczas startu radioaktywność reaktorów będzie bardzo niska – poniżej 5 kiurów – a więc nieszkodliwa (...) Nie będzie żadnych produktów rozszczepienia, dopóki reaktory nie zostaną włączone i wtedy też pojawi się nieco promieniowania”.

Inną opcją jest energia słoneczna, ale to rozwiązanie ogranicza wytwarzanie energii do tych części, które są wystarczająco nasłonecznione. Księżycowy krater Shackeltona, pierwszy kandydat na wypady na Księżyc ze względu na zasoby wody, spowijają całkowite ciemności. Najbardziej nasłonecznione okolice Marsa odbierają około jednej trzeciej światła słonecznego w porównaniu z Ziemią.

Rozwój technologiczny będzie potrzebował wytrzymałych ludzi

Wraz z pracami nad wyzwaniami technologicznymi, których celem jest utrzymanie ludzi przy życiu i umożliwienie im rozwoju w tak nieprzyjaznych warunkach, prowadzone są szkolenia, które umożliwią badanie dynamiki zespołu i skutków izolacji.

Na hawajskim wulkanie Mauna Loa sześć osób właśnie zakończyło ośmiomiesięczną izolację w warunkach podobnych do marsjańskich. Załoga Hi-SEAS musiała przetrwać, dysponując naprawdę ograniczonymi zasobami wody i elektryczności. Żywili się liofilizowanymi produktami albo takimi, które były wystarczająco stabilne, by przetrzymać czas trwania misji. Kontakt ze światem zewnętrznym ograniczony był do cotygodniowych wypadów w otaczający teren, w kombinezonie, tak jak podczas prawdziwej misji. Łączność z osobami z zewnątrz możliwa była za pośrednictwem poczty elektronicznej z dwudziestominutowym opóźnieniem, które miałoby miejsce podczas rzeczywistej misji.

Hawajski wulkan wybrano ze względu na jego cechy fizyczne: nosi bardzo niewiele śladów obecności człowieka i na tej wysokości rośliny są rzadkością. Geologiczne właściwości wulkanu umożliwiły załodze pobieranie próbek i prowadzenie badań tak jak robiliby to na Marsie. Tego rodzaju badania nie mogą rzecz jasna przewidzieć wszystkich aspektów misji załogowej do tak odległego i nieprzyjaznego środowiska, ale z materiałów wideo zamieszczonych w witrynie dziennika »New York Times« możemy się dowiedzieć, co uczestnicy wynieśli z tego doświadczenia.

Wnioski z misji Hi-SEAS będą pomocne w podejmowaniu decyzji, jakich astronautów należy wybrać do długiej podróży kosmicznej. W czwartym filmie wideo, opublikowanym 2 lipca 2017 r., uczestnicy odpowiadają na pytania widzów: mówią, czego im najbardziej brakowało podczas tych 8 miesięcy izolacji; opisują, jak radzili sobie z konfrontacją i odpowiadają na pytanie, czy – mając taką możliwość – nadal zdecydowaliby się na wyprawę na Marsa.

Tropienie wód gruntowych daje wskazówki co do migracji Naszych przodków i Naszej własnej puli genów

Nowe badania,bazujące na wynikach wcześniejszego projektu finansowanego ze środków UE,zajmują się analizą wpływu wód gruntowych w Afryce Wschodniej na przetrwanie pierwszych ludzi i wskazują,że mogły być czynnikiem pobudzającym ewolucję.W artykule opublikowanym w czasopiśmie Nature Communications,opisującym nowe badania,zasugerowano,że źródła wód gruntowych stanowiły swego rodzaju arterię życiową dla ludzi podczas wczesnych migracji ze Wschodniej Afryki,które miały miejsce około 2 do 1,8 mln lat temu.W tamtych czasach afrykańskie monsuny funkcjonowały w cyklach o długości 23000 lat,zmieniając wielkość opadów i przeplatając je okresami słabych opadów,co powodowało niedobory wody pitnej.Zespół badawczy prześledził bieg afrykańskich źródeł w różnych okresach,co pozwoliło mu opracować mapę szlaków,które najprawdopodobniej przemierzały tamtejsze populacje,a to z kolei może pomóc w wyjaśnieniu niezrozumiałych anomalii w schematach rozproszenia.Oprócz wpływu wahań klimatu prace te podkreślają rolę,jaką odgrywa geologia w udostępnianiu wody pitnej.Jak wyjaśnia w artykule kierownik badań,dr Mark Cuthbert:„Doszliśmy do wniosku,że geologia odgrywa naprawdę ważną rolę w kontrolowaniu tego,ile wody z opadów zostaje zmagazynowanych w gruncie podczas okresów wilgotnych.Modelowanie tych źródeł pokazało,że wiele z nich mogło nadal płynąć w czasie długich suchych okresów,ponieważ gruntowe zasoby wody działały niczym bufor chroniący przed zmianą klimatu”.Interesujące może być też przypuszczenie zespołu,iż źródła te mogły służyć za swego rodzaju ośrodki społeczne dla wędrownych populacji.Stwarzając różnym ludziom możliwość spotkania się,źródła te ostatecznie przyczyniły się do zwiększenia różnorodności genetycznej,a tym samym stanowiły bodziec w ewolucji człowieka.
Rola interakcji między wodami gruntowymi a powierzchniowymi
Najnowsze badania naświetlające życie Naszych przodków korzystają z technik i wniosków wypracowanych w ramach finansowanego ze środków UE projektu EPHEMERAL,nad którym prace zakończyły się w 2015 r.Tamte badania poświęcone były temu,jak interakcje między wodami gruntowymi i powierzchniowymi(GSI)regulują pośrednie uzupełnianie zlewni efemerycznych,płynąc jedynie przez krótki czas(od kilku godzin do kilku dni).Zespół EPHEMERAL,także pod kierownictwem dr.Cuthberta,wykorzystał innowacyjne techniki modelowania komputerowego do przetworzenia informacji pozyskanych w toku szczegółowego monitorowania w terenie oraz zanalizowania zlewni w Nowej Południowej Walii w Australii.Badano naturalne procesy,w których wody powierzchniowe przesączają się przez grunt i uzupełniają zasoby wód gruntowych.Pogłębione poznanie procesów wraz z modelowaniem umożliwiło sprawdzenie przyszłych scenariuszy w odpowiedzi na takie zmienne jak zmiany w użytkowaniu gruntów i zmiany klimatu.Prace prowadzono z myślą o umożliwieniu wykorzystania ich wyników także w przypadku innych zlewni.Wody gruntowe w warstwach wodonośnych uzupełniane są przez wody powierzchniowe,rzeki i strumienie,a także przez opady.Funkcjonują wówczas jak podziemny zbiornik na wodę,który może złagodzić skutki niedoborów wody na przykład w okresach suszy.Około 20% słodkiej wody na świecie pochodzi z wód gruntowych,które zapewniają wodę pitną około jednej trzeciej populacji świata.Ponadto,wedle raportu opublikowanego niedawno w czasopiśmie"Nature",wody gruntowe dostarczają ponad 40% wody wykorzystywanej do nawadniania upraw żywności na świecie.Rosną jednak obawy,że przy nasilających się niedoborach wody w niektórych częściach globu,powodowanych takimi czynnikami jak zmiana klimatu,urbanizacja i przyrost ludności,poleganie na wodach gruntowych(oraz innych alternatywnych źródłach,jak ścieki)nieuchronnie wzrośnie.Poprzez podkreślenie roli odgrywanej przez geologię w zaspokajaniu zapotrzebowania ludzi na wodę w przeszłości oraz opracowanie modeli możliwych scenariuszy interakcji między wodami gruntowymi a powierzchniowymi,projekt EPHEMERAL wniósł wkład w pogłębienie wiedzy na temat wymogów bardziej zrównoważonego zarządzania zasobami wody.

Prądy oceaniczne spychają dryfujące odpady plastikowe do wód arktycznych

Podzwrotnikowe ruchy wirowe znane są jako strefy akumulacji dryfujących odpadów plastikowych.Tymczasem akumulacja na polarnych szerokościach geograficznych nie została tak dokładnie zbadana.Niedawno opublikowane sprawozdanie relacjonuje zakrojone na szeroką skalę pobieranie próbek dryfujących odpadów z Oceanu Arktycznego,które przyniosło pewne interesujące ustalenia.Unijne wsparcie dla projektu MICRO B3 skrystalizowało się w postaci sprawozdania z prac badawczych,które ukazało się w Science Advances.Zespół ustalił,że co prawda źródła zanieczyszczenia są odległe,a odpadów plastikowych nie ma w większości objętych badaniami wód arktycznych,to jednak ich stężenie osiągnęło wysoki poziom na najdalej położonych na północ i wschód połaciach mórz Grenlandzkiego i Barentsa.Naukowcy przeanalizowali wielkość,rozmieszczenie i źródła zanieczyszczenia tworzywami sztucznymi powierzchni wód Oceanu Arktycznego w czasie okołobiegunowej ekspedycji Tara Oceans 2013.Prace nad projektem MICRO B3(Marine Microbial Biodiversity,Bioinformatics and Biotechnology)dobiegły końca w 2015 r.ale wkład projektu został doceniony przez Tara Oceans.W czasie okołobiegunowej ekspedycji,Andrés Cózar wraz z kolegami użył sieci do zbierania dryfujących odpadów plastikowych,między innymi wędek i najprzeróżniejszych folii,kawałków i granulek.Zidentyfikowano setki tysięcy dryfujących odpadów plastikowych na kilometr kwadratowy.Ich rozdrobnienie i rodzaj doprowadziły naukowców do wniosku,że plastik jest stary i pochodzi z odległych źródeł.W artykule potwierdzającym jego obecność czytamy:„Modele cyrkulacji powierzchniowej i dane terenowe sugerują,że odgałęzienie cyrkulacji termohalinowej(THC)w kierunku bieguna przenosi dryfujące odpady z Północnego Atlantyku do Morza Grenlandzkiego i do Morza Barentsa”.To byłby ślepy zaułek„przenośnika taśmowego plastiku”używając terminologii naukowców.Co niepokojące,zespół jest przekonany,że ze względu na ograniczoną powierzchnię transportu plastiku i mechanizmy wymuszające transport w dół,arktyczne dno morskie może być potężnym pochłaniaczem odpadów plastikowych.Co prawda populacja ludzi na północ od 60° szerokości geograficznej jest niewielka,ale w artykule wspomniano model cyrkulacji autorstwa van Sebille’a i współpracowników,który przewiduje strefę akumulacji plastiku w rejonie koła podbiegunowego,zwłaszcza na Morzu Barentsa.Ten rejon Oceanu Arktycznego odgrywa kluczową rolę w globalnym THC tworząc głębiny poprzez chłodzenie.Naukowcy wyjaśniają,że THC powoduje adwekcję ciepłych wód powierzchniowych z niskich do wysokich szerokości geograficznych z Północnego Oceanu Atlantyckiego do Arktyki.Może zabierać dryfujący plastik z zaludnionych szerokości geograficznych.Po dotarciu do mórz Grenlandzkiego i Barentsa,masy lądu i polarne pokrywy spowodują uwięzienie odpadów.Wyniki testów pokazały,że choć koło podbiegunowe jest w niewielkim stopniu zanieczyszczone odpadami plastikowymi,to na morzu Grenlandzkim i Barentsa są ich ogromne ilości i do tego szeroko rozpowszechnione.Zespół ustalił,że maksymalne stężenia były niższe niż w podzwrotnikowych strefach akumulacji,ale wartości średnie były podobne,zwłaszcza pod względem liczby elementów.„Całkowite obciążenie dryfującym plastikiem wód wolnych od lodu na Oceanie Arktycznym zostało oszacowane na 100 do 1200 ton,z czego 400 ton złożonych z szacowanych jako średnia 300 miliardów 1011 kawałków plastiku”czytamy w artykule.Zważywszy na szeroki zakres,naukowcy twierdzą,że badania należy traktować jako pierwsze,wstępne przybliżenie.Należy zwiększyć rozdzielczość próbkowania,aby zawęzić przedział ufności powiązany ze zmiennością stężeń przestrzennych plastiku i efektem mieszania wertykalnego wzbudzanego wiatrem zaznaczyli.

Emisje tlenku azotu z ruchu ulicznego znacznie zaniżone

Wyniki finansowanego ze środków UE projektu ALP-AIR wskazują,że obecne szacunki zanieczyszczenia tlenkiem azotu pochodzącym z ruchu ulicznego mogą być nawet czterokrotnie zaniżone.Naukowcy z finansowanego ze środków UE projektu ALP-AIR opublikowali niedawno swoje wnioski z ciągłego monitorowania stężenia gazów śladowych w powietrzu.Zespół użył metody pomiaru atmosferycznego zwanej kowariancją wirów,w której dane źródłowe wykorzystywane są w analizie statystycznej celem wywnioskowania poziomu emisji w promieniu około jednego kilometra od miejsca pomiaru.Badania opisane w czasopiśmie Scientific Reports oparto na pomiarach wykonywanych w 2015 r.przez okres trzech miesięcy w Innsbrucku,Austria.Wnioski wskazują,że tlenek azotu w powietrzu pochodzi głównie z dwóch typów działalności człowieka,mianowicie ruchu ulicznego oraz urządzeń spalania w budynkach mieszkalnych.Ponad 80% pochodzi z pojazdów spalinowych,przede wszystkim samochodów z silnikiem Diesla.
Przywracanie równowagi w szacowaniu emisji tlenku azotu
W swoim obserwatorium miejskim zespół ALP-AIR rejestrował stężenia dwutlenku węgla(CO2),tlenku azotu(NO)oraz lotnych związków organicznych(LZO)w 36000 punktów na godzinę.„Wynik jest dosyć reprezentatywny dla całego miasta”mówi dr Thomas Karl z Instytutu Nauk Atmosferycznych i Kriosferycznych Uniwersytetu w Innsbrucku.Odnosząc się do znaczenia tych wyników w kontekście ograniczeń alternatywnych podejść,stwierdził,że:„Nawet nowsze modele atmosferyczne bazują na zestawach emisji,które aż czterokrotnie niedoszacowują poziomu emisji tlenku azotu”.Stężenie tlenku azotu raz po raz przekracza maksymalny dopuszczalny poziom na obszarach miejskich w całej Europie.Jednym z elementów potrzebnych do rozwiązania tego problemu jest możliwość precyzyjnego zidentyfikowania i zmierzenia źródeł tego gazu.Tymczasem większość strategii ukierunkowanych na walkę z zanieczyszczeniem powietrza opiera się na danych doświadczalnych z obiektów testowych.Jak wyraźnie pokazał niedawny skandal dotyczący specyfikacji silników wysokoprężnych,pomiary emisji silników wykonywane na stanowiskach testowych niewiele mają wspólnego z faktycznym oddziaływaniem na środowisko naturalne.To właśnie pozyskiwanie danych in situ sprawia,że badania w ramach projektu ALP-AIR są tak wartościowe.Warto też zauważyć,że w ramach tych badań uzyskano dowody na to,że przekraczanie unijnych limitów stężenia NO nie jest już tylko domeną obszarów metropolitalnych i zindustrializowanych,lecz dotyczy także mniejszych miejscowości,co nadaje ustaleniom szczególnej aktualności.Naukowcy z projektu ALP-AIR badali okolice Innsbrucku,jednego z ważniejszych skrzyżowań pomiędzy północą a południem Europy,przez które przejeżdża około sześć milionów pojazdów rocznie,a więc jest ono reprezentatywne dla Europy Środkowej oraz w ogóle dla regionu alpejskiego.
W kierunku lepszego zarządzania zanieczyszczeniem powietrza i opieką zdrowotną
W dwudziestym wieku szybka industrializacja wraz z praktykami rolniczymi nastawionymi na zwiększanie produkcji,np.poprzez stosowanie syntetycznych nawozów,doprowadziły do znacznego wzrostu stężenia NO w powietrzu.W wyższym stężeniu NO staje się gazem toksycznym,zaklasyfikowanym do niebezpiecznych zanieczyszczeń powietrza i łączonym z takimi problemami zdrowotnymi jak trudności z oddychaniem,a także ze wzrostem zanieczyszczenia ozonem w warstwie przyziemnej,co ma swoje konsekwencje klimatyczne.Przejście na pojazdy z silnikiem Diesla owszem pozwoliło ograniczyć emisje CO2 dzięki lepszej gospodarce paliwowej,ale spowodowało podwyższenie emisji NO w całej Europie.Jak wskazują partnerzy projektu,prognozowany 70% wzrost liczby pojazdów z silnikiem wysokoprężnym,głównie w Azji,znacznie zwiększa potrzebę lepszego poznania zmian w obecności NO oraz chemii ozonu w celu uzyskania trafniejszych ocen wpływu na środowisko.Jednym z naczelnych celów projektu było opracowanie nowych kompleksowych narzędzi do monitorowania środowiska oraz wniesienie bezpośredniego wkładu w poprawę modeli systemów Ziemi.Wybiegając w przyszłość,naukowcy chcą przedłużyć okres monitorowania emisji oraz zbadać oddziaływanie autostrad,sezonowości i działalności rolniczej na emisje.

Czy to nie symboliczne?Ochra sprzed 40000 lat wskazuje na symboliczne użycie

Najnowsze analizy archeologiczne znalezisk ochry w Etiopii stanowią kontynuację wcześniejszych prac w ramach finansowanego ze środków UE projektu,którego partnerzy odkryli,że przedstawiciele gatunku homo sapiens zaczęli używać symboli wcześniej niż dotychczas przypuszczano.W ramach finansowanego ze środków UE projektu TRACSYMBOLS,nad którym prace zakończyły się w 2015 r.badano stanowiska archeologiczne w Południowej Afryce pod kątem używania symboli przez homo sapiens na podstawie analizy zestawów do malowania,ostrzy włóczni,korali oraz rytów na skorupach strusich jaj.Przyglądano się też zastosowaniu czerwonawej,bogatej w żelazo skały ochry.To właśnie do niej powrócili niedawno członkowie zespołu projektowego.W artykule opublikowanym niedawno w ogólnodostępnym czasopiśmie"PLOS ONE"partnerzy projektu TRACSYMBOLS wyjaśniają,że ochra często pojawia się na stanowiskach ze środkowej epoki kamienia.Stan,w jakim nierzadko jest znajdywana,w kawałkach o zmienionym kształcie w wyniku szlifowania i skrobania celem pozyskania czerwonego proszku,wraz z przedmiotami poplamionymi nią,takimi jak narzędzia z kamienia i kości,skłonił naukowców do przyjęcia tezy,iż jest ona znakiem współczesnego warunkowanego symbolicznie zachowania człowieka.Podczas swoich ostatnich prac zespół analizował największy znany zbiór ochry z okresu środkowej epoki kamienia we wschodnioafrykańskiej jaskini Porc-Epic w Etiopii.Składa się on z 40 kg ochry w kawałkach z okresu sprzed około 40000 lat,który obejmuje na co najmniej 4500 lat.Aby dowiedzieć się,jak przetwarzano i wykorzystywano ochrę,zespół zbadał 3792 kawałki za pomocą charakteryzacji wizualnej,mikroskopii,analizy tekstury powierzchni,analizy morfologicznej i morfometrycznej oraz replikował techniki ścierania.Kluczowy wniosek jest taki,że jaskiniowcy zdobywali,przetwarzali i wykorzystywali te same rodzaje ochry przez cały ten okres 4500 lat.Naukowcy stwierdzili,że uwzględniając odkryte ilości,użycie materiału wskazuje na„wyrażenie spójnej adaptacji kulturowej,współdzielonej w dużej mierze przez wszystkich członków społeczności i konsekwentnie przekazywanej w czasie”.Niektóre kawałki ochry wskazywały na stosowanie toczaków,najprawdopodobniej do wytwarzania proszku,co zgadza się z wiedzą o wykorzystywaniu go do ozdabiania,np.malowania ciała,choć nie wyklucza się innych,bardziej funkcjonalnych zastosowań.
Pisanie na nowo historii ewolucji?
Pierwotnym celem projektu TRACSYMBOLS było badanie pojawiania się kluczowych innowacji kulturowych w Afryce i Europie w okresie od 160000 do 25000 lat temu.Wykopaliska archeologiczne w Afryce skoncentrowane były w południowym regionie Prowincji Przylądkowej Zachodniej w Republice Południowej Afryki.Podejście archeologiczne zostało uzupełnione przez zespół wskaźnikami paleoklimatycznymi odzwierciedlającymi zmiany w zakresie temperatur,wegetacji i występowania zjawisk pożarowych.Wykorzystanie tych informacji w modelowaniu komputerowym dało pełniejszy obraz powiązań między dawnymi adaptacyjnymi systemami człowieka a środowiskami,w których one ewoluowały.Odkrycia doprowadziły zespół do wniosku,że stosowanie symboli przez homo sapiens miało miejsce już 75000 lat temu,a może nawet i 100000 lat temu.Umiejscowienie w czasie jest o tyle istotne,że wskazywałoby na to,iż opuszczając Afrykę co wedle szacunków miało miejsce 80-60 tysięcy lat temu przedstawiciele gatunku homo sapiens byli już„współcześni”.Dotychczas sądzono,że istotne postępy kulturowe i technologiczne gatunek homo sapiens poczynił w Europie około 40000 lat temu.Owa współczesność doprowadziła prawdopodobnie do późniejszego zdominowania Europy przez ten gatunek.

Przyspieszenie w dążeniach do ograniczenia emisji przez transport publiczny

Miejskie przedsiębiorstwa autobusowe z Niemiec,Południowego Tyrolu i Włoch,wspólnie zamawiają 63 autobusów z ogniwami paliwowymi do swoich flot w ramach finansowanego ze środków UE projektu JIVE.W ramach programu JIVE(Wspólna inicjatywa na rzecz pojazdów wodorowych w Europie),który jest finansowanym ze środków UE projektem mającym na celu wprowadzenie 139 bez emisyjnych autobusów zasilanych ogniwami paliwowymi w dziewięciu miastach pierwsze wdrożenie na taką skalę w Europie organizowane jest wspólne udzielanie zamówień.Wprowadzenie 63 nowych autobusów w ciągu zaledwie kilku miesięcy oznacza,że cel projektu,polegający na podwojeniu liczby bez emisyjnych autobusów w Europie,jest już skutecznie realizowany.Ben Madden,dyrektor Element Energy,koordynatora projektu w Zjednoczonym Królestwie,wyjaśnia,że skoordynowane podejście do zakupu dużej liczby takich autobusów zwiększa standaryzację oraz znacząco obniża koszty,umożliwiając miastom realizowanie ambitnego celu wdrażania bez emisyjnych autobusów.Projekt został uruchomiony z zamiarem wprowadzenia około 140 takich nowych autobusów w dziewięciu miastach,w pięciu krajach Europy to pierwsze wdrożenie na taką skalę w Europie.
Droga do pełnej komercjalizacji
W dążeniach do ograniczenia emisji pochodzących z transportu publicznego,autobusy zasilane wodorowymi ogniwami paliwowymi dowiodły już swojej skuteczności w kilku projektach w Europie,jak przedstawia to publiczno-prywatne partnerstwo pod nazwą Wspólne Przedsiębiorstwo na rzecz Technologii Ogniw Paliwowych i Technologii Wodorowych.Nadal jednak przed pełną komercjalizacją piętrzą się poważne przeszkody.Największą z nich jest to,że w porównaniu do konwencjonalnych autobusów,te z ogniwami paliwowymi wiążą się z wyższymi kosztami posiadania.Istnieje jeszcze bariera rynkowa,z którą mierzą się wszystkie nowe technologie:potrzeba spełnienia potrzeb publicznych przez sprawdzoną dostępność i niezawodność.Ponadto,konieczne jest zbudowanie kompleksowej infrastruktury tankowania.Partnerzy projektu JIVE przewidują,że skoordynowane zamówienia,w ramach których kilka miast i regionów może działać wspólnie,pozwolą na składanie dużych zamówień u poszczególnych producentów autobusów,zyskując tym sposobem na efekcie skali.Poza tym dzięki takiemu grupowemu podejściu zamówienia mają wspólne specyfikacje techniczne.Planowane floty są większe niż wprowadzane wcześniej od 10 do 30 autobusów.Przywiązywana jest też waga do zbudowania wydajnych łańcuchów dostaw i usług utrzymania.W ramach projektu testowane są nowe stacje tankowania wodoru,zdolne do obsługi flot z ponad 20 pojazdami.Pozwoli to zredukować koszty wodoru oraz przetestować niezawodność systemu na poziomie wymaganym do komercjalizacji czyli powyżej 99%.
Uświadamianie korzyści płynących ze stosowania wodorowych ogniw paliwowych
Jak szacuje w swoim raporcie Międzyrządowy Zespół ds.Zmian Klimatu,transport odpowiada za ponad jedną czwartą globalnych emisji CO2 i jest jednym z najszybciej intensyfikujących się źródeł gazów cieplarnianych.Wdrożenie pojazdów o niskiej emisji jako alternatywy wobec napędzanych paliwami kopalnymi uznaje się za niezbędne,aby złagodzić ten problem. Wodorowe ogniwa paliwowe uważa się za czyste źródło energii,ponieważ połączenie gazu wodorowego(H2)z tlenem(O2)powoduje wytworzenie wody,energii elektrycznej i ciepła,a nie jak w przypadku spalania paliw kopalnych w silnikach spalinowych szkodliwych produktów ubocznych.Poprzez wielkoskalowe wdrożenie projekt JIVE ma zapewnić przewoźnikom miejskim komercyjną opłacalność włączenia pojazdów z wodorowymi ogniwami paliwowymi do swoich flot bez potrzeby pozyskiwania dotacji.W ten sposób program JIVE oferuje władzom lokalnym i krajowym realną opcję osiągania celu,jakim jest obniżanie emisji.Sukces autobusów z ogniwami paliwowymi może też wywołać efekt domina i zachęcić do wprowadzenia wodoru w innych pojazdach,np.samochodach osobowych,furgonetkach i ciężarówkach.Niedawno zapowiedziano nawet pierwszy na świecie pociąg zasilany wodorowymi ogniwami paliwowymi,który ma ruszyć w trasę w Niemczech już w przyszłym roku.
 

Wyznaczanie trendów w nauce:Ogromna góra lodowa oderwała się od lodowca szelfowego w Antarktyce

Wielkości Delaware,czterech Londynów,ćwierci Walii jak by nie patrzeć nie ma wątpliwości,że jedna z największych jak dotąd odnotowanych gór lodowych oderwała się od lodowca szelfowego w Arktyce,co zostało potwierdzone 12 lipca przez satelitę NASA.Część lodowca szelfowego Larsen C ważąca ponad bilion ton,o przekroju 5800 kilometrów kwadratowych odrywała się już od miesięcy.Naukowcy pracujący nad projektem MIDAS ze Zjednoczonego Królestwa monitorują lodowiec Larsen C od wielu lat,po rozpadzie lodowca Larsen A w 1995 r. i nagłym pęknięciu lodowca Larsen B w 2002 r.Jak informują,ocieplenie się jest konsekwencją poszerzającej się od roku szczeliny.W następstwie oderwania się tej góry lodowej,powierzchnia lodowca szelfowego Larsen C zmalała o ponad 12%,skutkując nieodwracalną zmianą w krajobrazie Półwyspu Antarktycznego.To największe jak dotąd odnotowane cofnięcie się czoła lodowca.Partnerzy MIDAS będą prowadzić baczne obserwacje pod kontem oznak utraty stabilności pozostałej części szelfu.
Oddziaływanie dryfującej góry lodowej
Teraz rodzi się pytanie,czy góra może zagrozić szlakom żeglugowym?Mapa schematów dryfowania gór lodowych śledzonych wokół Antarktyki jest dostępna w witrynie BBC.Jak czytamy:„Ta kolektywna historia zdecydowanie sugeruje,że blok lodowca Larsen będzie się kierować na Południowy Atlantyk”.Prądy,kierunek wiatru i grawitacja będą mieć wpływ na kierunek,jaki obierze góra.Ze względu na wiatry,poziom wody jest o około pół metra wyższy w pobliżu wybrzeża Antarktyki w porównaniu ze środkowym oceanem.W ten sposób tworzy się stok,po którym spłynie góra pod własnym ciężarem,ale nie w linii prostej.Efekt Coriolisa,wywoływany przez ruch obrotowy Ziemi,spowoduje skręcanie góry lodowej w lewo.Wody oblewające kontynent są płytkie i jeżeli góra będzie szorować po dnie,to albo się obróci albo zatrzyma,żłobiąc rów w dnie morskim.Określane jest to mianem przeciągania.Może utknąć na dobre na wypiętrzeniu oceanicznego wybrzeża,tworząc na wpół stałą wyspę lodową na Morzu Weddella.„Już takie rzeczy widzieliśmy”stwierdziła dr Anna Hogg z Uniwersytetu Leeds.Góra lodowa ma jednak,wedle oczekiwań,płynąć i trzeć w kierunku północnym w prądach przybrzeżnych,opływając półwysep.„Góry lodowe często zbierają się w ławice i obracają się wokół własnej osi albo wirują,co skutkuje zatrzymaniem się i wprawieniem w ruch albo zmianą kierunku.Może upłynąć nieco czasu,zanim góra lodowa oderwana od lodowca Larsen C opuści płytkie[wody]zachodniej części Morza Weddella”stwierdził dr Mark Drinkwater,jeden ze starszych naukowców zajmujących się obserwacją Ziemi z ramienia Europejskiej Agencji Kosmicznej w wypowiedzi dla BBC.

Krajowa etykieta dla produktów drobnego rybołówstwa jeden ze sposobów podnoszenia konkurencyjności

Jak najlepiej bronić praw drobnych rybaków,aby zapewnić im godziwą płacę i podnieść ich konkurencyjność?Zdaniem partnerów finansowanego ze środków UE projektu SUCCESS,jednym z kluczowych kroków jest podnoszenie świadomości poprzez,jak proponują,etykietowanie.Popyt na produkty dla sektora owoców morza i akwakultury rośnie a ich podaż jest ograniczona to z pewnością przepis na atrakcyjne szanse dla dowolnego biznesu powiązanego z owocami morza.Niemniej przedsiębiorstwa trudniące się zarówno rybołówstwem,jak i akwakulturą stają w obliczu kluczowych wyzwań,które obecnie utrudniają im czerpanie pełnych korzyści z rozwoju rynków owoców morza,a nawet poddają w wątpliwość ich zrównoważony charakter.Partnerzy projektu SUCCESS(Strategic Use of Competitiveness towards Consolidating the Economic Sustainability of the European Seafood Sector)dążą do zwiększenia zapotrzebowania na unijne owoce morza poprzez podniesienie świadomości korzyści,jakie wiążą się z europejską produkcją.Opublikowali właśnie w swojej witrynie najnowszy z serii filmów dokumentalnych.Film wideo nt.platformy drobnych rybaków,nakręcony w Breście we Francji nosi tytuł"Fish&Changes".Prezentuje pracę platformy drobnych rybaków,założonej w 2013 r.aby opracować krajową etykietę owoców morza i produktów rybołówstwa.Wyraża uznanie dla pracy rybaków,którzy wymyślili nowe sposoby prowadzenia działalności.Proponowana etykieta da konsumentom pewność,że ryba została złowiona przez jednostkę pływającą poniżej 12 metrów długości,przy użyciu narzędzi połowowych biernych:wędek,sieci albo koszy.Prowadzący platformę zdają sobie sprawę,że trzeba zaangażować lokalnych rybaków.Mają nadzieję wywołać efekt kuli śnieżnej z korzyścią zarówno dla rybaków,jak i rynku,który stanie się przejrzysty.Jednym z zauważalnych pożytków będzie położenie nacisku za pomocą etykiety na upowszechnianie mniej znanych gatunków.Menedżer platformy,Ken Kawahara,zdaje sobie sprawę z piętrzących się przed nim przeszkód:przekonać innych drobnych rybaków,rynek i konsumentów.Wsparcie UE,za pośrednictwem projektu SUCCESS,pomaga mu podnosić świadomość atutów takiego systemu,dzięki czemu jego strategia ma szanse powodzenia.Projekt jest częścią strategii Niebieskiego wzrostu i ma w swoim zamierzeniu pogłębiać nowoczesną wiedzę i wykorzystywać wyniki,które mają bezpośrednie zastosowanie do sektorów produkcyjnych i szerszego łańcucha wartości.Dorobek obejmie wsparcie europejskich producentów owoców morza oraz uzyskanie wyraźnego obrazu aktualnej sytuacji i dalszego rozwoju łańcucha wartości.Filmy wideo to tylko jedno z szeregu wiarygodnych i praktycznych narzędzi do planowania i rozwijania branży owoców morza.We wszystkich pracach prowadzonych w ramach projektu zostaną uwzględnione globalne czynniki pobudzające podaż i popyt.Ujęte będą cykle zmiennej koniunktury i podjęte zostaną specyficzne prace badawcze,aby chronić sektor w przyszłości przed takimi negatywnymi oddziaływaniami rynkowymi.

Obserwowanie śladu wodnego Europy i rozpoznawanie potencjalnych słabości ekonomicznych

Zmiana klimatu nasila niedobory wody na całym świecie,a współzależności globalnego handlu oznaczają,że jej oddziaływanie może odbić się szerokim i dalekim echem,w tym w całej Europie przestrzegają partnerzy finansowanego ze środków UE projektu IMPREX.Europejskie strategie łagodzenia i przystosowywania się w odpowiedzi na wzrost silnie oddziałujących skrajnych warunków hydrologicznych polegają na udoskonalonym prognozowaniu w połączeniu z precyzyjną kwantyfikacją prawdopodobnego wpływu.Ocena skutków wymaga analizy szerszego zakresu zagadnień takich jak:wpływ na bezpieczeństwo obywateli;produkcja rolna;transport;produkcja energii;zaopatrzenie miast w wodę i ostatecznie ogólna wydajność gospodarcza.Niedawno przeprowadzone w ramach finansowanego ze środków UE projektu IMPREX studium pt.„Dependencies of Europe’s economy on other parts of the world in terms of water resources”wnosi wkład w opracowanie kompleksowej oceny ryzyka.Na podstawie analizy miejsca,gdzie produkowane są towary konsumowane przez europejskich obywateli lub użytkowane przez przedsiębiorstwa,ustalono w ramach badań IMPREX,że niemal 40% zapotrzebowania na wodę w UE jest zaspokajane w krajach leżących poza Europą.Ponadto w studium wskazano,że niektóre spośród głównych europejskich artykułów handlowych,takie jak pasza,ryż i bawełna,pochodzą z regionów doświadczanych nasilającymi się niedoborami wody,co stanowi potencjalne zagrożenie dla europejskiej gospodarki.
Zrozumieć popyt i podaż
Studium oparło się na założeniu,że towary będące przedmiotem handlu międzynarodowego zawierają w sobie„wirtualną wodę”jako komponent niezbędny do ich produkcji.Dlatego też łączenie wiedzy o źródle i przepływie wirtualnej wody,wpływającej i wypływającej z regionów,może powiedzieć więcej o uzależnieniu gospodarek od wody.Najbardziej być może oczywistym przykładem są produkty rolne,które są wodochłonne,uzależnione od dostępności wody w różnych miejscach i na różnych etapach procesu produkcji.To sprawia,że produkcja jest podatna na takie zagrożenia,jak zanieczyszczenie zasobów słodkowodnych,susze lub spadek stanu rzek.Dane IMPREX przedstawiają zmapowane,konkretne uprawy importowane do Europy według regionów pochodzenia,śledząc przypadki,w których płody rolne wywodzą się z regionów borykających się z różnym stopniem niedoboru wody.Przedstawione przykłady to bawełna,ryż i trzcina cukrowa importowane z Australii i Republiki Południowej Afryki,które to kraje stają w obliczu poważnego niedoboru wody.Aby obliczyć„ślad wodny”pozostawiany przez przepływ produkcji i spożycia tych towarów,partnerzy IMPREX przeanalizowali trzy źródła wody oznaczone odpowiednio kolorem zielonym,niebieskim i szarym.Zielony ślad oznacza wodę opadową magazynowaną w glebie i odparowywaną,podlegającą transpiracji lub wbudowywaną przez rośliny,ważną dla produktów rolnych,ogrodniczych i leśnych.Niebieska woda pochodzi z zasobów powierzchniowych lub podziemnych albo paruje,jest włączana do produktu albo przenoszona z jednego zbiornika wodnego do innego,zazwyczaj w ramach rolnictwa nawadnianego,przemysłu lub zużycia wody na potrzeby gospodarstw domowych.Szara woda to taka,która pochłania zanieczyszczenia,aby utrzymać standardy jakości i bezpieczeństwa.Zespół IMPREX opracował„wirtualny model handlu wodą”,który koreluje roczne globalne przepływy handlowe głównych produktów przemysłowych,produktów uprawy i produktów zwierzęcych z produkcją krajową odpowiednio dla zielonego,niebieskiego i szarego śladu wodnego.Model obejmuje lata 2006-2013,czyli te niedawno minione,za które dane są pewne.W toku badań ustalono,że ślady wodne związane z produkcją i spożyciem w UE za ten okres wyniosły odpowiednio,po uśrednieniu,517 km3 oraz 600 km3 rocznie.
Opracowywanie ram oceny podatności na zagrożenia
Komentując wyniki badań,profesor Bart van den Hurk,koordynator projektu IMPREX powiedział:„Na dzień dzisiejszy to raczej alarm”.Studium służy za punkt wyjścia do kolejnego etapu projektu polegającego na ocenie faktycznych potencjalnych oddziaływań i potencjalnych podatności na zagrożenia różnych europejskich sektorów gospodarki.IMPREX wesprze ostatecznie europejskie rządy,decydentów i przedsiębiorstwa prywatne w zakresie planowania zrównoważonego rozwoju,uwzględniania wpływu przyrostu ludności,zwiększonego zapotrzebowania na produkty i usługi oraz zmiany klimatu.

sobota, 20 stycznia 2018

Spalanie w pętli chemicznej dla zakładów gazowniczych kompensujących emisję CO2

Nowa metoda spalania gazu eliminująca konieczność kosztownej separacji gazu została skutecznie przygotowana do zastosowania na większą skalę.Nowa metoda pozwala na znaczne zmniejszenie kar związanych z wydajnością instalacji gazowo-parowej w porównaniu do alternatywnych technologii wychwytywania CO2,a także na zmniejszenie o 60% kosztów ograniczenia emisji CO2 w porównaniu do technologii oczyszczania za pomocą związków aminowych.Konsorcjum chce poszerzyć zakres stosowania tej technologii o spalanie biomasy.Mimo,że obecne metody spalania gazu ziemnego są czystsze niż spalanie ropy naftowej,czy węgla,wciąż generują CO2 w mieszaninie gazów spalinowych zawierającej azot,parę wodną i inne substancje.W tej postaci dwutlenek węgla nie może być składowany ani poddany recyklingowi.Rozwiązanie tego problemu było celem naukowców uczestniczących w finansowanym przez UE projekcie SUCCESS(Industrial steam generation with 100 % carbon capture and insignificant efficiency penalty Scale-Up of oxygen Carrier for Chemical-looping combustion using Environmentally SuStainable materials).Szukali oni opłacalnej, alternatywnej metody spalania i postawili na technologię CLC(spalanie w pętli chemicznej).
Co sprawia,że technologia CLC ma tak duży potencjał w zakresie wychwytywania i składowania dwutlenku węgla?
Największą zaletą technologii CLC jest to,że powietrze i paliwo nigdy się nie mieszają oraz,że można pominąć pochłaniający dużą ilość energii etap separacji gaz-gaz(oddzielenie CO2 od strumienia gazów spalinowych),który jest często stosowany w przypadku innych metod wychwytywania dwutlenku węgla.To pozwala na znacznie obniżenie kosztów energetycznych związanych z separacją CO2.
Jaką rolę odgrywał projekt SUCCESS w dalszym rozwoju tej technologii?
W projekcie SUCCESS skupiono się na dwóch najważniejszych aspektach technologii:skalowaniu produkcji nośników tlenu i skalowaniu konstrukcji układu reaktora.Głównym celem projektu było przygotowanie technologii CLC do wdrożenia w instalacjach o mocy wejściowej w zakresie 10 MW.W tym celu zwiększono produkcję materiałów będących nośnikami tlenu zostały skalowane do kilku ton i przedstawiono koncepcję reaktora odpowiednią dla tych wielkości produkcji.

Jakie były główne trudności i jak zostały pokonane?
Główną trudnością było przekształcenie produkcji materiału przenoszącego tlen ze skali laboratoryjnej do produkcji wielotonowej.Skalowanie to obejmowało dwa kluczowe aspekty:identyfikację surowców dostępnych w ilościach przemysłowych i skalowanie samego procesu produkcji.Produkcja nośników tlenu na dużą skalę przebiega przy użyciu surowców,które są bardziej zanieczyszczone niż czyste chemikalia stosowane w produkcji na skalę laboratoryjną.Wyzwaniem jest określenie wpływu tych zanieczyszczeń na produkt końcowy i wybór najbardziej odpowiedniego surowca.Problemy te zostały rozwiązane w trakcie realizacji projektu i udało się uzyskać produkcję na poziomie 3,5 tony materiału.Zastosowano iteracyjną metodę optymalizacji produkcji na dużą skalę,tj.metodę obejmującą regularne przekazywanie informacji zwrotnych podczas procesu skalowania przez jednostki pilotażowe biorące udział w testach.Nadal jednak widzimy możliwość dalszej optymalizacji procesu produkcyjnego,która może doprowadzić do uzyskania lepszych materiałów.

Jak przebiegał proces weryfikacji?
Proces weryfikacji przebiegł bardzo dobrze.Wyprodukowane materiały zostały przetestowane w kilku jednostkach pilotażowych o mocy od 10 kW do 1 MW.Praca przy wykorzystaniu tych materiałów przebiegała pomyślnie we wszystkich jednostkach.Porównanie z materiałami wzorcowymi wykazało,że wydajność skalowanego materiału jest podobna do wydajności materiału wzorcowego.

Jaki jest potencjał komercyjny technologii CLC?
Analiza techniczno-ekonomiczna wykazała,że największy potencjał wykorzystania technologii CLC w przypadku paliw gazowych,takich jak gaz ziemny lub rafineryjny,związany jest z produkcją pary technologicznej.Dowiedzieliśmy się również,jak ważne jest zrobienie kroku naprzód i zastosowanie technologii na większą skalę(w elektrowniach 10 MW),aby zyskać doświadczenie w długoterminowej pracy z wykorzystaniem technologii CLC.
Jakie są Pana plany na przyszłość?
Patrząc na wyniki projektu,jesteśmy pewni,że technologia jest gotowa do zastosowania na jeszcze większą skalę.Nie mamy jednak konkretnych planów dotyczących kontynuacji projektów demonstracyjnych.Bardzo interesującym przedsięwzięciem byłoby opracowanie technologii CLC do produkcji energii z biomasy.Wówczas można osiągnąć emisję dwutlenku węgla poniżej zera.Biorąc pod uwagę dążenia do utrzymania budżetu węglowego w celu ograniczenia wzrostu temperatury o co najmniej 2°C,technologia Bio Energy CCS(BECCS)zyskuje coraz większe znaczenie.Zostało to podkreślone w ostatnim raporcie IPCC.Dostrzegamy duży potencjał CLC w tym obszarze.

Dr Karolina Laszczyk twórczyni maleńkich superkondensatorów

Prace nad miniaturyzacją urządzeń do gromadzenia energii tzw.super kondensatorów prowadzi dr Karolina Laszczyk z Politechniki Wrocławskiej.W tym roku badaczka wygrała w konkursie"Innowacja jest kobietą".W konkursie Fundacji Kobiety Nauki Polska Sieć Kobiet Nauki nagradzane są wynalazczynie autorki innowacyjnych rozwiązań.W tym roku nagrodę główną otrzymała dr Karolina Laszczyk.To badaczka z Międzywydziałowego Zakładu Mikroinżynierii i Fotowoltaiki Politechniki Wrocławskiej."Pracuję nad miniaturyzacją urządzeń,w tym nad chipowymi superkondensatorami zwanymi również kondensatorami elektrochemicznymi"mówi w rozmowie z PAP dr Laszczyk.Badaczka opowiada,że super kondensatory podobnie jak baterie służą do gromadzenia energii.W odróżnieniu jednak od nich bardzo szybko,np.w ciągu sekund,ładują się i rozładowują.Na przykładzie samochodu elektrycznego rozmówczyni PAP wyjaśnia,czym są super kondensatory."Na dzień dzisiejszy baterie i superkondensatory uzupełniają się.Baterie dostarczają energii,aby pojazd mógł jak najdłużej jechać.A superkondensatory dostarczają moc,aby pojazd ruszył lub gwałtowanie zahamował"opisuje.Jak dodaje,superkondensatory wciąż nie są w stanie gromadzić tyle energii,co baterie.W opracowanym przez dr Laszczyk superkondensatorze elektrody są tysiące razy mniejsze aniżeli w komercyjnym kondensatorze,a przy tym mają identyczne osiągi tj.pojemność,napięcie zasilania,energię i moc.W produkcji nowych mikrosuperkondensatorów badaczka wykorzystała nanorurki węglowe.A one w przeciwieństwie do wykorzystywanego w komercyjnych superkondensatorach węgla aktywnego mogą gromadzić więcej ładunków elektrycznych w tej samej objętości i lepiej przewodzą prąd elektryczny.Dzięki temu z mniejszej objętości uzyskujemy podobną,a nawet wyższą energię.Jak wyjaśnia,postęp w miniaturyzacji superkondensatorów przydać się może chociażby w tworzeniu coraz mniejszych urządzeń elektronicznych czy układów scalonych.Kiedy zmniejsza się wymiary elektrod takiego superkondensatora(w rezultacie mikrosuperkondensatora),wymiana jonów między katodą i anodą zachodzi znacznie szybciej.Dzięki temu czas ładowania skraca się do mili- a nawet mikrosekund.Rozmówczyni PAP mówi,że teraz niezbędne dla układów zasilania w elektronice są aluminiowe kondensatory elektrolityczne.Mają one najczęściej kształt walca."Są szybkie,dostarczają dużo mocy,ale są względnie duże i ciężkie"opowiada.Tymczasem dr Laszczyk opracowała rozwiązanie,w którym pojedynczy superkondensator ma postać płaskiego chipa o rozmiarach 0,7 mm x 0,9 mm x 0,01 mm.Takie chipy można ze sobą łączyć szeregowo i równolegle,dzięki czemu można projektować ich osiągi."Jeśli te elementy połączymy szeregowo sumuje się ich napięcie.A jeśli połączymy je równolegle,sumują się ich pojemności"opowiada dr Laszczyk.Nie ma ograniczenia,jeśli chodzi o liczbę łączonych w ten sposób elementów."W pojedynczym procesie udało się wytworzyć ok.4,7 tys.mikrosuperkondensatorów upakowanych na powierzchni o średnicy 10 cm"zaznacza dr Laszczyk.Przekonuje,że w ten sposób można uzyskać dowolne zadane parametry.W pracach nad nowymi mikrosuperkondensatorami badaczka z PWr zastosowała technologię podobną do tej używanej do wytwarzania miniaturowych urządzeń w krzemie.Dr Laszczyk ma nadzieję,że dzięki jej badaniom będzie można produkować mniejsze superkondensatory zużywając do tego mniej materiałów.A urządzenia łatwiej będzie zaadaptować do urządzeń mobilnych.W bieżącej edycji konkursu"Innowacja jest kobietą"nagrodą jest prezentacja zwycięskiego projektu podczas Międzynarodowych Targów Pomysły,Wynalazki,Nowe Produkty iENA 2017 w Norymberdze.
 

Przygotowanie do wdrożenia technologii CCL w elektrowniach węglowych

Spalanie węglanu wapnia w pętli chemicznej(CLL)to nowa technologia wychwytywania dwutlenku węgla.Mimo,że jest uważana za mniej toksyczną niż metody alternatywne i pozwala uniknąć kar za zbyt niskie wychwytywanie,metoda ta wciąż nie jest gotowa do wprowadzenia na rynek.Przełomowe odkrycia zespołu SCARLET mogą przyczynić się do przyspieszenia działań w tym zakresie.Celem projektu SCARLET(Scale-up of Calcium Carbonate Looping Technology for Efficient CO2 Capture from Power and Industrial Plants)była kontynuacja prac prowadzonych przez Uniwersytet Techniczny w Darmstadt:od kwietnia 2014 roku zespół modernizował działającą elektrownię pilotażową o mocy 1 MW,pomagając jej w jak największym stopniu spełnić wymagania dotyczące instalacji przemysłowych.Dzięki wynikom uzyskanym w ramach tego eksperymentu dr Jochen Ströhle i jego zespół mają nadzieję na zbudowanie instalacji o mocy 20 MW na terenie pilotażowej elektrowni węglowej Emile Huchet we Francji.Przemysł węglowy to obszar,w którym technologia CCL najprawdopodobniej zostanie wprowadzona w ciągu najbliższych kilku lat.
Co wyróżnia CCL na tle konkurencyjnych technologii?
Tak,jak w przypadku innych technologii wychwytywania wtórnego,dwutlenek węgla zawarty w gazach spalinowych jest absorbowany w jednym reaktorze i desorbowany w drugim.Ważną zaletą technologii CCL jest to,że sorbentem jest wapień naturalny,niedrogi,łatwo dostępny na całym świecie minerał,który nie ma negatywnego wpływu na środowisko.Jednakże główną zaletą CCL w porównaniu z technologiami opartymi na ciekłych sorbentach jest eksploatacja w wysokiej temperaturze powyżej 650°C.Oznacza to,że ciepło wymagane do regeneracji sorbentu może być wykorzystane w wysoce wydajnym cyklu parowym do produkcji energii elektrycznej.To sprawia,że kary za brak efektywności wychwytywania są raczej niskie mieszczą się w zakresie 6-7 punktów procentowych(w tym dotyczące kompresji CO2)w przypadku elektrowni węglowych,czyli są znacznie niższe,niż w przypadku konkurencyjnych technologii.Ponadto koszty ograniczenia emisji CO2 są również dużo niższe.
Jakie były główne wyniki testów terenowych w elektrowni o mocy 1 MW?
Jednym z wyzwań dotyczących technologii CCL jest dezaktywacja sorbentu w procesie spiekania i siarkowania,a także rozcieńczanie z udziałem popiołu.W tym celu należy do procesu dodać pewną ilość wapienia.Jednakże dezaktywacja i rozcieńczenie to raczej wolno przebiegające procesy,przez co stabilne warunki w instalacji mogą być osiągnięte dopiero po ok.50 godzinach ciągłej pracy.Głównym osiągnięciem instalacji testowej w pilotażowej elektrowni o mocy 1 MW było uzyskanie kilku punktów operacyjnych o stabilnych warunkach przy różnych prędkościach dodawania wapienia,dla różnych rodzajów paliwa(węgiel kamienny i brunatny),wielkości cząstek paliwa,rodzajów wapienia itd.Udowodniono,że można osiągnąć wydajność wychwytywania CO2 na poziomie powyżej 90% dla kilku punktów operacyjnych o stabilnych warunkach.
Z jakimi głównymi problemami będzie trzeba zmierzyć się podczas wprowadzania tej technologii w instalacjach o mocy 20 MW i w jaki sposób można je rozwiązać?
Ponieważ reaktory wykorzystują dobrze znaną technologię cyrkulacyjnego złoża fluidalnego,dostosowanie ich do instalacji o większej mocy jest dosyć proste.Jednym z wyzwań jest właściwa kontrola przepływu cząstek stałych między reaktorami.Omówiono różne koncepcje z ekspertami w dziedzinie technologii złoża fluidalnego,a niektóre z nich z powodzeniem przetestowano w skalowanym modelu zimnego przepływu.Jednakże głównym problemem związanym z zastosowaniem technologii CCL na dużą skalę było określenie działania sorbentu przy uwzględnieniu procesów dezaktywacji i rozcieńczenia opisanych powyżej.Wyniki testów pilotażowych wykorzystano w celu sprawdzenia poprawności modeli do przewidywania właściwości sorbentu,które mogłyby następnie zostać użyte do zaprojektowania elektrowni o mocy 20 MW.
Jakie Pana zdaniem są najważniejsze osiągnięcia tego projektu?
Jestem dumny z faktu,iż udało Nam się obsługiwać instalację pilotażową przez ponad 1000 godzin w trybie wychwytywania CO2,dzięki czemu można było wygenerować obszerną bazę danych,którą można wykorzystać do weryfikacji modeli i rzetelnej oceny procesu CCL.
Z jakimi opiniami sektora przemysłowego spotkał się Pan do tej pory?
GE Carbon Capture,główny partner zaangażowany we wdrażanie technologii CCL,współpracował z Nami przy planowaniu i ewaluacji testów pilotażowej instalacji 1 MW.Jest bardzo zadowolony z wyników,a w szczególności z uzyskania przez Nas stabilnych warunków dla różnych punktów operacyjnych.Teraz ma pewność,że metodologia zastosowana podczas projektowania procesu CCL jest właściwa.Użytkownicy końcowi uczestniczący w projekcie,tj.zakłady energetyczne i cementownie byli zadowoleni z relatywnie niskich kosztów ograniczenia emisji CO2 dzięki technologii CCL.
W jaki sposób przebiegają prace nad stworzeniem elektrowni o mocy 20 MW?
Celem projektu SCARLET było zaprojektowanie podstaw konstrukcji elektrowni o mocy 20 MW.Elektrownia ta nie została jeszcze zbudowana.Jednakże układ elektrowni i szacowane koszty są zgodne z Naszymi przewidywaniami.
Wasz projekt właśnie został zakończony.Jakie macie w związku z tym plany na przyszłość?Kolejnym krokiem będzie zbudowanie i uruchomienie elektrowni pilotażowej o mocy 20 MW w celu zademonstrowania technologii CCL w praktyce.Taka budowa wymaga jednak dużych środków i wsparcia ze strony przemysłu.Niestety,cena za certyfikaty dotyczące emisji CO2 jest raczej niewielka,więc partnerzy przemysłowi,w szczególności zakłady energetyczne,obecnie nie widzą korzyści biznesowych dla CCS w najbliższej przyszłości.Do realizacji tego przedsięwzięcia potrzebne byłoby duże dofinansowanie ze strony władz.Technologia CCL może być ciekawym rozwiązaniem dla cementowni,ponieważ CCL i producenci cementu potrzebują mniej więcej tych samych zasobów,tj.wapienia.Technologia CCL wzbudza szczególne zainteresowanie cementowni,ponieważ duża część emisji CO2 w tego typu zakładach wynika z procesu kalcynacji wapienia,którego nie można uniknąć poprzez zastosowanie odnawialnych źródeł energii.Z tego właśnie powodu wzniesienie pilotażowego zakładu CCL o mocy 10-20 MW na terenie cementowni może być wykonalną opcją zwiększenia skali technologii CCL.

120 mln od NCBR na innowacje w sektorze elektroenergetycznym

Narodowe Centrum Badań i Rozwoju przeznaczył 120 mln zł na innowacje w branży elektroenergetycznej.Związany z tym konkurs ogłoszono 1.08.2017.Celem programu PBSE jest wsparcie wysiłków przedsiębiorców tworzących technologie i rozwiązania zwiększające bezpieczeństwo energetyczne Polski oraz efektywność sektora energetycznego,co ma znaczenie dla całej gospodarki.Duży nacisk został położony na innowacje proekologiczne:zwiększenie udziału energii pozyskiwanej odnawialnych źródeł energii(OZE) i ograniczenie emisji zanieczyszczeń."Rosnące zapotrzebowanie na energię stawia przed branżą elektroenergetyczną szereg wyzwań,zwłaszcza w obszarze pozyskiwania energii z odnawialnych źródeł energii.Zależy Nam,by stosowane w Polsce technologie i rozwiązania dawały użytkownikom jak najwięcej korzyści,a jednocześnie były jak najbardziej przyjazne dla środowiska naturalnego"mówi wiceminister nauki i szkolnictwa wyższego Piotr Dardziński."W II konkursie PBSE inwestujemy 120 mln zł w nowatorskie projekty polskich firm.Ich realizacja pozwoli na produkcję i dystrybucję lepszej jakości,bezpiecznej energii,zarówno na potrzeby przemysłu,jak i gospodarstw domowych"dodał."W programie sektorowym PBSE wspieramy realizowane przez przedsiębiorstwa różnej wielkości projekty B+R w obszarach takich jak energetyka konwencjonalna,energetyka odnawialna,sieci elektroenergetyczne oraz nowe produkty i usługi.Ich realizacja przyniesie korzyści całej gospodarce,a poszczególne firmy będą mogły skuteczniej rywalizować na rynku międzynarodowym"mówi zastępca dyrektora NCBR,prof.Aleksander Nawrat.Budżet II konkursu PBSE wynosi 120 mln zł.Minimalna wartość projektu wynosi 2,a maksymalna 40 mln zł.Dzięki kolejnym udogodnieniom wprowadzonym przez NCBR przedsiębiorcy będą mogli się ubiegać nie tylko o dofinansowanie prac B+R(badania przemysłowe i prace rozwojowe),ale także prac przedwdrożeniowych.To czynności poprzedzające wdrożenie rezultatów prac B+R w działalności gospodarczej,takie jak na przykład opracowanie dokumentacji wdrożeniowej,usługi rzecznika patentowego,testy czy badania rynku.Wnioski o dofinansowanie można było składać od 2 października do 1 grudnia.
Szczegółowe informacje o konkursie dostępne są na stronie NCBR:
Strona głównaFundusze europejskieProgram Operacyjny InteligentnyRozwójKonkursyKonkurs_6/1.2/2017_PBSE
Dokumentacja dla konkursu„PBSE”,finansowanego ze środków w ramach Działania 1.2„Sektorowe programy B+R” POIR w 2017 r.
ZASADY KONKURSU:
  1. Opis programu
  2. Ogłoszenie o konkursie
  3. Regulamin Przeprowadzania Konkursu
  4. Zakres tematyczny konkursu
  5. Wykaz Krajowych inteligentnych specjalizacji
  6. Przewodnik kwalifikowalności kosztów w ramach POIR
  7. Kryteria wyboru projektów
  8. Zakres minimalny umowy konsorcjum(aktualizacja z 7 sierpnia 2017 r.)
  9. Rozporządzenie MNISW w sprawie warunków i trybu udzielania pomocy publicznej przez NCBR
WNIOSEK O DOFINANSOWANIE PROJEKTU WRAZ Z ZAŁĄCZNIKAMI: 
  1. Wzór wniosku o dofinansowanie
  2. Sytuacja finansowa(część wniosku)
  3. Instrukcja wypełniania wniosku o dofinansowanie(aktualizacja z 7 sierpnia 2017 r.)
  4. Wzór oświadczenia dotyczącego złożenia wniosku za pośrednictwem systemu informatycznego
  5. Informacje na potrzeby ewaluacji dla przedsiębiorcy
UMOWA O DOFINANSOWANIE:
  1. Wzór umowy o dofinansowanie dla projektu realizowanego samodzielnie(aktualizacja z 7 sierpnia 2017 r.)
  2. Wzór umowy o dofinansowanie dla projektu realizowanego w ramach konsorcjum(aktualizacja z 7 sierpnia 2017 r.)
  3. Lista dokumentów niezbędnych do podpisania umowy
  4. Wzór formularza Analiza zgodności projektu z polityką ochrony środowiska
DOKUMENTY DODATKOWE:
  1. Program Operacyjny Inteligentny Rozwój
  2. Szczegółowy Opis Osi Priorytetowych POIR
  3. Ustawa wdrożeniowa
  4. Rozporządzenie 651/2014
  5. Rozporządzenie ogólne
  6. Rozporządzenie EFRR
  7. Rozporządzenie nr 1407/2013
  8. Dyrektywa 2003/87/WE
  9. Wskaźniki produktu i rezultatu bezpośredniego Działanie  1.2 POIR
  10. Kalkulator EPC
  11. Wykaz czasopism opracowany przez MNISW(Część A)
  12. Klasyfikacja MAE
  13. Poziomy gotowości technologicznej
  14. Poradnik dla użytkowników dotyczący definicji MŚP
  15. Wytyczne horyzontalne w zakresie kwalifikowalności wydatków
  16. Wytyczne POIR w zakresie kwalifikowalności wydatków
  17. Wytyczne w zakresie kontroli
  18. Opracowanie dotyczące wykluczonych rodzajów działalności gospodarczej
http://www.ncbr.gov.pl/fundusze-europejskie/poir/konkursy/konkurs6122017pbse/

Ponad 72 mln zł na innowacje w chemii

Stworzenie bezodpadowej technologii wytwarzania produktów powstających w wyniku przetworzenia biomasy czy produkcja biopreparatów nowej generacji na bazie unikalnych szczepów mikroorganizmów to niektóre z projektów,które otrzymały dofinansowanie od NCBR w ramach II konkursu programu sektorowego INNOCHEM."Sektor chemiczny ma ogromny wpływ na niemal wszystkie aspekty Naszego życia"mówi cytowany w przesłanym PAP komunikacie prasowym wiceminister nauki i szkolnictwa wyższego Piotr Dardziński."Domy,w których mieszkamy,pojazdy,których używamy,czy nawet produkty spożywcze,które na co dzień konsumujemy bazują na produktach chemicznych.Ich jakość i sposób wytwarzania mają zatem znaczenie dla jakości życia każdego z Nas"."W konkursie INNOCHEM inwestujemy ponad 72 mln zł w nowatorskie projekty,by motorem dalszego rozwoju polskiej chemii były stworzone przez polskich przedsiębiorców i naukowców innowacyjne produkty i technologie"dodaje Dardziński.INNOCHEM jest jednym z pierwszych programów sektorowych uruchomionych przez NCBR.Powstał w oparciu o studium wykonalności złożone przez Polską Izbę Przemysłu Chemicznego.Założeniem programu jest wspieranie innowacyjnych projektów związanych z pozyskiwaniem surowca,wytwarzaniem produktów podstawowych oraz specjalistycznych,nowymi technologiami i tzw.obszarami horyzontalnymi czyli optymalizacją prowadzonych procesów i niskoemisyjnymi technologiami wytwórczymi."W ramach programu INNOCHEM współfinansujemy prace badawczo-rozwojowe,których efektem będą lepsze technologie i produkty stosowane i sprzedawane przez polskie przedsiębiorstwa sektora chemicznego"mówi zastępca dyrektora Narodowego Centrum Badań i Rozwoju prof.Aleksander Nawrat."Zważywszy,że ta branża przetwarza surowce na produkty mające zastosowanie niemal we wszystkich pozostałych sektorach,ich lepsza jakość przyczyni się do powstania lub udoskonalenia setek innych produktów,z których korzystają zarówno firmy,jak i odbiorcy indywidualni"Budżet II konkursu INNOCHEM wynosił 180 mln zł.Złożonych zostało 40 wniosków o dofinansowanie na łączną kwotę ponad 188 mln zł.Po ocenie merytorycznej dofinansowanie w łącznej wysokości ponad 72 mln otrzymało 17 projektów.Najwyżej oceniony został projekt"Biotransformacja i rafinacja kaskadowa śruty roślin oleistych w celu uzyskania surfaktantów,polimerów oraz komponentów paszowych”,zgłoszony przez firmę Boruta-Zachem Biochemia Sp.z o.o.jedno z czterech przedsiębiorstw z sektora małych i średnich przedsiębiorstw,które uzyskały dofinansowanie w konkursie.
Szczegółowe informacje o wynikach II konkursu INNOCHEM dostępne są na stronie NCBR:http://www.ncbr.gov.pl

Sejm przyjął senackie poprawki:zmiany w trybie zabiegania o granty

Zmiany w trybie przyznania kategorii naukowej oraz grantów badawczych z narodowych agencji zakłada nowelizacja ustawy o finansowaniu nauki.Sejm w czwartkowym głosowaniu przyjął zgłoszone przez Senat drobne poprawki do tych przepisów.Sejm przyjął w czwartkowym głosowaniu pięć zaproponowanych przez Senat poprawek przede wszystkim doprecyzowujących do nowelizacji ustawy o zasadach finansowania nauki oraz niektórych innych ustaw.Ustawa czeka jeszcze na podpis prezydenta.Nowelizacja przewiduje m.in.częściowe wyłączenie stosowania przepisów Kodeksu postępowania administracyjnego(Kpa)z procesu przyznawania kategorii naukowej jednostkom naukowym.Podobnie,jeśli chodzi o zasady przyznawania środków finansowych przez Narodowe Centrum Badań i Rozwoju(NCBR)oraz Narodowe Centrum Nauki(NCN).Nowelizacja jak napisano w uzasadnieniu ma się przyczynić„do zracjonalizowania(usprawnienia)procesu przyznawania kategorii naukowej oraz środków na projekty finansowane przez NCBR oraz NCN”oraz ma wyeliminować„wątpliwości w zakresie charakteru prawnego postępowań prowadzonych w ramach przyznawania kategorii naukowej przez ministra oraz w obu centrach”.Do postępowań w sprawach przyznania kategorii naukowej jednostce naukowej nie będzie się stosowało niektórych przepisów Kpa.Przepisy te zakładały,że organy administracji publicznej musiały zapewnić stronom czynny udział w każdym stadium postępowania.A przed wydaniem decyzji musiały umożliwić stronom wypowiedzenie się co do zebranych dowodów i materiałów.Tymczasem,jak zwracali uwagę przedstawiciele resortu nauki,droga do przyznania kategorii naukowej nie jest typowa dla postępowań Kpa.Ewaluacji podlega jednocześnie ok.1 tys.jednostek naukowych,a oceny dokonuje ok.200 ekspertów z różnych dziedzin.Podobnie niestandardowe według resortu nauki są dla postępowań Kpa postępowania w sprawie przyznania środków finansowych w programach prowadzonych przez NCBR oraz NCN.Ustawa przewiduje też możliwość finansowania większego zakresu działań,związanych z wydawaniem czasopism i monografii naukowych,służących upowszechnianiu wyników badań i wprowadzania ich do obiegu międzynarodowego.Poza tym zgodnie z nowymi przepisami minister nauki będzie mógł przyznać środki na nowe programy m.in.ukierunkowane na wspieranie młodych naukowców lub osób rozpoczynających karierę naukową również uczelniom.Minister będzie miał też większe możliwości,by zwiększyć dotacje na utrzymanie potencjału badawczego.Ustawa ma wejść w życie po upływie 14 dni od dnia ogłoszenia(z wyjątkiem jednego z nowych przepisów,który wejdzie w życie 1 stycznia 2018 r.)

25 mln zł dla młodych naukowców na pierwsze zespoły badawcze

Łącznie 25,6 mln zł otrzymało 13 młodych polskich badaczy i badaczek od Fundacji na rzecz Nauki Polskiej.Granty przyznane w ramach programu FIRST TEAM młodzi badacze będą mogli wykorzystać na stworzenie swoich pierwszych zespołów badawczych."Program FIRST TEAM wspiera młodych naukowców na kluczowym etapie kariery,kiedy rozpoczynają oni budowanie swojej samodzielności naukowej i pomaga im w podejmowaniu najciekawszych wyzwań badawczych"mówi w przesłanym PAP komunikacie prasowym zastępca dyrektora ds.działalności programowej FNP dr Tomasz Poprawka.Na prace badawczo-rozwojowe można otrzymać nawet ok.2 mln zł na trzy lata.Granty są finansowane ze środków pochodzących z Programu Operacyjnego Inteligentny Rozwój.Do trzeciego konkursu w programie FIRST TEAM zgłoszonych zostało 81 wniosków;finansowanie na łączną kwotę 25,6 mln zł otrzymało 13 projektów.Pozyskane od FNP środki pozwolą laureatom konkursu na stworzenie własnych zespołów badawczych i sfinansowanie co najmniej 28 miejsc pracy dla naukowców zatrudnionych w projektach oraz 46 stypendiów dla studentów i doktorantów zaangażowanych w realizację prac badawczych.Do współpracy przy prowadzeniu badań zostało zaproszonych łącznie 26 zagranicznych partnerów naukowych,siedmiu partnerów naukowych z Polski oraz dwóch partnerów gospodarczych.Wśród laureatów konkursu znalazła się dr Agata Starosta,która będzie realizowała grant na Wydziale Biologii i Biotechnologii Uniwersytetu Marii Curie Skłodowskiej w Lublinie.Dzięki grantowi w wysokości blisko 2 mln zł będzie ona prowadzić badania mające na celu pokazanie zmiennej natury rybosomów bakteryjnych,tzw.wyspecjalizowanych rybosomów.Zespół dr Starosty będzie badać bakterię Bacillus subtilis.Ma ona niezwykłe właściwości,ponieważ tworzy formy przetrwalnikowe(tzw.spory)które są bardzo odporne na wszelkie formy dezynfekcji oraz mogą przeżyć bardzo wysokie i niskie temperatury,promieniowanie jonizujące czy wpływ silnych chemikaliów.Szczególny nacisk zostanie położony na znalezienie czynników,które są niezbędne do funkcjonowania sporów,ponieważ może to doprowadzić do opracowania nowych antybiotyków."Wierzę,że szczegółowe poznanie cyklu życiowego bakterii sporulujących pozwoli na otwarcie nowej drogi do opracowania specyficznych inhibitorów translacji,a tym samym poszerzenie wachlarza antybiotyków,który w ostatnich latach uległ znaczącemu uszczupleniu,ponieważ pojawiły się bakterie oporne na wiele znanych antybiotyków"stwierdza dr Starosta.Z kolei dr Konrad Wojciechowski z Fundacji Saule Research Institute będzie kierował badaniami,których celem jest zwiększenie stabilności i niezawodności perowskitowych ogniw słonecznych.Na realizację projektu i założenie własnego zespołu badawczego dr Wojciechowski otrzymał od FNP prawie 2 mln złotych.Jednym z technologicznych wyzwań stojących na drodze do masowej komercjalizacji perowskitowej fotowoltaiki jest stabilność tych urządzeń:materiał perowskitowy jest podatny na degradację w warunkach atmosferycznych."Dodatkowo,niepożądane procesy fizykochemiczne zachodzące na styku warstw wewnątrz ogniwa,mogą w negatywny sposób wpływać na długoterminową trwałość tych połączeń"tłumaczy dr Wojciechowski.Zespół kierowany przez dra Wojciechowskiego chce zwiększyć operacyjny czas życia perowskitowych ogniw słonecznych do granicy 15-20 lat,co przybliży komercyjne zastosowanie tej technologii na dużą skalę i pozwoli na konkurowanie z tradycyjnymi technologiami fotowoltaicznymi.Badania będą realizowane we współpracy z czołowymi jednostkami badawczymi w dziedzinie fotowoltaiki z Włoch i Niemiec,zaś partnerem gospodarczym projektu jest Saule Sp.z o.o.Inna laureatka,dr inż.Joanna Olesiak-Bańska z Wydziału Chemicznego Politechniki Wrocławskiej,na realizację projektu NONA(z ang.Nonlinear Optics,Nanoparticles and Amyloids)otrzymała od FNP 1,7 mln złotych.Celem badań,które będzie prowadzić zespół dr Olesiak-Bańskiej,jest opracowanie nowych metod obrazowania oraz nowych znaczników amyloidów,czyli agregatów białkowych odpowiedzialnych za wiele schorzeń,m.in.za choroby neurodegeneracyjne,takie jak choroba Alzheimera czy choroba Parkinsona.Mimo ogromnego wzrostu zainteresowania badaniem mechanizmów powstawania amyloidów oraz wielu prac nad nieinwazyjnymi metodami diagnostyki chorób związanych z powstawaniem amyloidów,nadal nie ma użytecznych narzędzi w tej dziedzinie.Jak tłumaczy dr Olesiak-Bańska,wyniki badania mogą w przyszłości pomóc w stworzeniu nowych narzędzi diagnostycznych opartych na optycznych metodach obrazowania.Oprócz dr Starosty i dra Wojciechowskiego,granty w ramach trzeciego konkursu w programie FIRST TEAM otrzymali:dr Piotr Brągoszewski z Uniwersytetu Warszawskiego,dr Damian Graczyk z Instytutu Biochemii i Biofizyki PAN w Warszawie,dr Piotr Kolenderski z Uniwersytetu Mikołaja Kopernika w Toruniu,Dr Michał Komorowski z Instytutu Podstawowych Problemów Techniki PAN w Warszawie oraz dr hab.Piotr Michał Korczyk z Instytutu Podstawowych Problemów Techniki PAN w Warszawie.Na liście laureatów znaleźli się również dr inż.Konrad Kowalczyk z Akademii Górniczo-Hutniczej im.Stanisława Staszica w Krakowie,dr Radosław Łapkiewicz z Uniwersytetu Warszawskiego,dr Kinga Majchrzak ze Szkoły Głównej Gospodarstwa Wiejskiego w Warszawie,dr inż.Tomasz Marszałek z Politechniki Łódzkiej oraz Michał Roman Szymański z Międzyuczelnianego Wydziału Biotechnologii UG-GUMed.1 sierpnia 2016 r.rozpoczął się nabór w czwartym i jednocześnie przedostatnim konkursie w programie FIRST TEAM.Wnioski można było składać do 2 października 2017.Z kolei nabór wniosków w ostatnim konkursie rozpocznie się na początku stycznia 2018 r.

Ekspert:aby skutecznie walczyć ze smogiem,trzeba zmienić świadomość Polaków

Do skutecznej walki z problemem smogu w Polsce niezbędna jest zmiana świadomości w całym społeczeństwie twierdzi w rozmowie z PAP Wiktor Warchałowski z krakowskiego start-upu Airly,który tworzy w polskich miastach sieć sensorów monitorujących stan powietrza."Choć o smogu i zanieczyszczonym powietrzu jest w ostatnich latach coraz głośniej,wiele osób wciąż postrzega go jako problem niewystępujący bezpośrednio w ich otoczeniu"mówi Warchałowski.Z takim postrzeganiem smogu stara się on walczyć za pomocą sieci sensorów monitorujących stan powietrza.Mierzą one m.in.poziom stężenia w powietrzu pyłów zawieszonych PM2.5 oraz PM10,temperaturę powietrza,ciśnienie atmosferyczne oraz wilgotność powietrza.Dzięki temu czujniki te dostarczają w miarę kompletnego obrazu warunków w pobliżu sensorów."Bliskość tych urządzeń sprawia,że jesteśmy świadomi realności problemu tego,że wcale nie jest on oddalony o parę kilometrów"tłumaczy Warchałowski."Bez uwzględnienia w działaniach antysmogowych takiego właśnie aspektu psychologicznego problemu smogu nie uda się rozwiązać"mówi.Po zgromadzeniu danych na temat poziomu zanieczyszczenia powietrza,opracowane przez krakowską firmę sensory nakładają te dane na dostępną online mapę,pokazującą jakość powietrza w danym momencie.Smog to problem lokalny,nawet w miejscach oddalonych od siebie o zaledwie kilka kilometrów jakość powietrza może się diametralnie różnić stąd też,jak tłumaczą ich twórcy konieczne jest stworzenie gęstej sieci urządzeń."Urządzenia mierzące parametry dotyczące powietrza oraz jego zanieczyszczenia są tylko jednym z elementów systemu"mówi Warchałowski."Oprócz tego mamy także platformę,na której wizualizujemy wyniki tych pomiarów,jak również udostępniamy prognozę zanieczyszczenia"opisuje.Właśnie prognozy jakości powietrza jak tłumaczy rozmówca PAP są jednym z najważniejszych elementów systemu."Tworzone są za pomocą algorytmów sztucznej inteligencji:na podstawie wszystkich zbieranych przez Nas danych,także pogodowych,na temat ukształtowania terenu czy wiatru.Analizując je,algorytmy AI tworzą prognozę jakości powietrza na najbliższe 24 godziny"tłumaczy."Przede wszystkim daje to włodarzom miast i gmin realne narzędzie,które pomaga w podejmowaniu działań mających na celu rozwiązanie problemu zanieczyszczenia powietrza"mówi Warchałowski."Dzięki temu systemowi możemy zlokalizować źródło zanieczyszczeń.Ma to niebagatelny wpływ na ochronę powietrza:często słyszymy bowiem głosy prezydentów czy burmistrzów,dla których największym problemem jest to,że nie wiedzą,co jest głównym źródłem smogu w ich okolicy.Mogą oczywiście zdecydować,że będą wymieniać piece lub edukować mieszkańców w całym mieście czy gminie jednak działania te nie za bardzo mają sens bez zidentyfikowania źródła problemu"dodaje."Oprócz tego,udostępniana jest wspomniana już prognoza jakości powietrza.Dzięki niej mieszkańcy mogą np.wybrać najlepszą porę w ciągu dnia oraz trasę na spacer z dzieckiem albo bieganie"opowiada rozmówca PAP.Według Warchałowskiego,optymalne zagęszczenie sensorów to ok.2-3 urządzenia na kilometr kwadratowy."Pozwoliłoby to na dokładne zdiagnozowanie problemu smogu i stworzenie bardzo precyzyjnych prognoz jakości powietrza"twierdzi."Pamiętajmy jednak,że to również zależy od wielu czynników, np.od ukształtowania terenu,gęstości zaludnienia,gęstości zabudowy.To zjawisko lokalne i dość mocno zmienne".Rozmówca PAP dodaje,że rezultaty uświadamiania ludzi dostrzega w rozmowach z użytkownikami systemu tworzonego przez Airly."Rezultat Naszej pracy fantastycznie widać,kiedy zwracają się do Nas ludzie,mówiąc,że nie byli świadomi tego,jak złe jest u nich powietrze.Mieszkają bowiem np.pod Krakowem a z tego,co wszyscy mówią,jest to problem stricte krakowski.Tymczasem dookoła Krakowa powietrze bywa jeszcze gorsze niż w centrum miasta"opowiada.Krakowski start-up otrzymał prawie 3,5 mln zł od Narodowego Centrum Badań i Rozwoju w ramach programu"Szybka Ścieżka"na dalszy rozwój prognozowania jakości powietrza,w tym m.in.rozszerzenie przedziału czasowego prognozy.Do tej pory Airly sprzedało swoje urządzenia do ponad 40 gmin i miast.Sensory działają m.in.w Krakowie i otaczających go gminach,w Warszawie,pod Warszawą,jak również na Śląsku czy na Podkarpaciu.Największe zainteresowanie systemem wyrażają gminy w Małopolsce.

poniedziałek, 8 stycznia 2018

Internetowe narzędzia pomagające operatorom zakładów w wyborze najbezpieczniejszej metody magazynowania CO2

Przed uzyskaniem koncesji i wdrożeniem w życie plany magazynowania CO2 muszą zostać uznane za bezpieczne i niezawodne.Największym problemem w tym kontekście jest zapobieganie ucieczce CO2.Obecnie dostępnych jest wiele opcji i strategii,jednak wybranie tej właściwej może sprawiać kłopot.Uczestnicy projektu MIRECOL(Remediation and mitigation of CO2 leakage)przeprowadzili pełną analizę istniejących i przyszłych narzędzi zaradczych i łagodzących.Skupiając się przede wszystkim na zabezpieczeniach umieszczanych w obrębie zbiorników magazynowych lub w ich pobliżu,zespół zgromadził dane dotyczące skuteczności tych zabezpieczeń,zaś wysnute wnioski przedstawił w specjalnym podręczniku oraz dedykowanym narzędziu internetowym.Zależnie od wymogów obowiązujących w zakładzie docelowym,narzędzie to ocenia każdą dostępną technologię pod kątem trwałości,prawdopodobieństwa powodzenia,zasięgu przestrzennego oraz czasu reakcji i kosztów,a nawet porównuje różne dostępne możliwości.Filip Neele,lider projektu w TNO i koordynator projektu MIRECOL,omawia uzyskane wyniki i ich możliwy wpływ na rozwój technologii CCS w Europie.Prowadzone przez Pana badania dotyczą w głównej mierze ucieczki CO2.
Czy uważa Pan,że ucieczka ta może być barierą ograniczającą wprowadzenie technologii CCS?Ryzyko ucieczki CO2 ze zbiornika nie jest przeszkodą we wdrażaniu technologii CCS.Właściwy wybór i konstrukcja instalacji pozwalają ograniczyć to ryzyko,zaś z pozostałymi można sobie poradzić,stosując odpowiednie strategie monitorowania.Dzięki temu w niezwykle rzadkim przypadku ucieczki dwutlenku węgla operatorzy mogą podjąć odpowiednie środki naprawcze.Projekt MIRECOL zwiększył liczbę opcji dostępnych w tym zakresie.
Jakie są najważniejsze odkrycia związane z istniejącymi i przyszłymi metodami łagodzenia skutków takiej ucieczki?
Na podstawie zebranych danych stwierdziliśmy,że operatorzy instalacji mają o wiele większy wybór środków naprawczych,niż wynika to z przyjętych planów zaradczych.Nasz projekt stanowi fundament,od którego operatorzy mogą zacząć tworzenie własnych systemów środków zaradczych w procesie rozbudowy i składania wniosku koncesyjnego,jak również pomaga wybrać odpowiednie działania naprawcze w razie nagłej sytuacji.
Czy istnieje jedna konkretna technologia,którą można uznać za najlepszą?
Nie istnieje technologia,którą można by uznać za uniwersalną.W niektórych przypadkach wystarczające jest samo zatłaczanie,inne mogą wymagać bardziej złożonych czynności.Wykonalność i skuteczność danego środka zaradczego zależą od parametrów instalacji magazynowej oraz rodzaju nieprawidłowości,jak również warunków powierzchniowych,które mogą ograniczać możliwość wykonywania działań w obrębie studni.Zespół MIRECOL przeanalizował dużą liczbę środków zaradczych pokrywających szeroki zakres potencjalnych zdarzeń niepożądanych,jakie mogą wystąpić w obrębie samego zbiornika lub jego pobliżu.Mimo,że każde rzeczywiste zdarzenie dotyczące rzeczywistego zbiornika magazynowego będzie się różnić od scenariuszy przyjętych w projekcie,wyniki Naszych analiz pomogą operatorom wybrać najlepsze z dostępnych technologii.
Co może Nam Pan powiedzieć o prezentacji w warunkach rzeczywistych?
Projektem MIRECOL objęte były dwie instalacje pilotowe:przybrzeżne pole gazowe K12-B w Holandii(obsługiwane przez partnera projektu,firmę ENGIE)oraz instalacja Ketzin w Niemczech(należąca do innego partnera,firmy GFZ).W obu badano skuteczność produkcji wstecznej zatłoczonego wcześniej CO2 jako środka zaradczego.Trzecia instalacja pole CO2 w pobliżu serbskiego miasta Bečej została wykorzystana do przetestowania nowego materiału uszczelniającego opracowanego przez uczestników projektu.Test zatłaczania,przeprowadzony przez partnera projektu MIRECOL,serbską firmę NIS,przyniósł bardzo obiecujące rezultaty stanowiące podstawę dla dalszych badań w większej skali.
Jaki,Pana zdaniem,wpływ będzie mieć projekt MIRECOL na branżę?
W ramach projektu przestudiowaliśmy ogromną liczbę środków zaradczych,a każdy z nich przeanalizowaliśmy pod kątem równie dużej liczby realistycznych scenariuszy.Celem udostępnienia zgromadzonego przez Nas zbioru danych operatorom oraz organom regulacyjnym zespół opracował specjalne narzędzie internetowe.Na podstawie danych zawartych w bazie narzędzie wybiera scenariusz w największym stopniu zgodny z sytuacją zdefiniowaną przez użytkownika i wskazuje szacowaną skuteczność środków zaradczych odpowiednich dla danego scenariusza.Dzięki pomocy operatorów należących do konsorcjum projektowego narzędzie zostało tak zaprojektowane,aby mogli z niego korzystać zarówno przyszli operatorzy instalacji magazynowych podczas tworzenia własnych planów środków zaradczych,jak i istniejący operatorzy i organy regulacyjne podczas omawiania dostępnych opcji w razie wystąpienia niepożądanego zdarzenia w samym zbiorniku lub jego pobliżu.Wszystkie sporządzone przez zespół raporty są łatwo dostępne na stronie projektu za pośrednictwem internetowego„podręcznika”środków zaradczych.
Wasz projekt właśnie został zakończony.Jakie macie w związku z tym plany na przyszłość?
Zespół planuje przedstawić uzyskane wyniki na konferencjach i innych wydarzeniach poświęconych technologiom CCS.Na stronie projektu znajdują się również internetowy podręcznik oraz narzędzia sieciowe,które będą usprawniane i ulepszane na podstawie opinii i danych dostarczanych przez użytkowników.Oczekujemy,że rzeczywiste rezultaty projektu MIRECOL,w ujęciu Europy,będą widoczne dopiero po rozpoczęciu realizacji projektów CCS i oddaniu instalacji di eksploatacji.