tupaj.com - porady do programów Headline Animator

wtorek, 20 grudnia 2011

piecyki biolite - nowe podejście do spalania

Piecyki opalane drewnem nie są szczególnie wydajne, a ich dym poza wysokim stężeniem węgla, zawiera substancje szkodliwe dla wdychających je osób. Przenośny piecyk firmy BioLite rozwiązuje ten problem, a przy okazji ładuje telefony komórkowe. BioLite Stove przekształca energię cieplną na elektryczną, która służy do zasilania wentylatorka ułatwiającego spalanie drewna, a oprócz tego pozostają dwa waty mocy do ładowania urządzenia przenośnego przez USB lub zasilenia lampki LED.



Firma przewiduje dla swojego produktu dwie grupy odbiorców: rodziny z krajów rozwijających się oraz turyści i biwakowicze. Jako pierwsza, na wiosnę 2012 roku, zostanie wprowadzona do sprzedaży wersja CampStove przeznaczona dla tej drugiej grupy. BioLite ma nadzieję, że dochody z jej sprzedaży pomogą dofinansować model HomeStove przeznaczony dla rodzin z krajów rozwijających się.


Producent twierdzi, że jego produkt wymaga dwa razy mniej drewna niż otwarte palenisko i wydziela 95% mniej dymu. Model CampStove waży jedynie niecałe 0,9 kg i gotuje litr wody w mniej niż cztery minuty. Może być opalany różnymi materiałami: gałązkami, szyszkami, łupinami ryżu, ściółką leśną, a nawet obornikiem.


Źródło:
http://techcrunch.com/2011/07/08/biolite-stove-charges-your-phone/  http://www.biolitestove.com/BioLite.html
Tłumaczenie pochodzi ze strony: http://www.elektroda.pl/rtvforum/topic2038292.html
Link dostarczył Mirosław Mleczek



środa, 14 grudnia 2011

Sztuczne naczynia krwionośne


Podczas gdy jedni naukowcy pracują nad sztuczną krwią, inni dbają by mogła płynąć sztucznymi naczyniami krwionośnymi

Prócz prac nad sztucznie uzyskiwaną krwią, głowy naukowców zaprząta także kwestia naczyń krwionośnych, które można by hodować w laboratorium z komórek właściciela.
Więcej na stronie Sztuczna krew, sztuczne naczynia

Link dostarczył: Dawid Misiuda

czwartek, 8 grudnia 2011

Zamiennik ludzkiej krwi

Przełom - udało się stworzyć zamiennik ludzkiej krwi
wielkie nadzieje wiąże się z najnowszym odkryciem Luca Douay'a z Université Pierre et Marie Curie w Paryżu. Opracował on metodę wytwarzania krwi z komórek macierzystych. Ze szpiku kostnego wolontariusza naukowcy pobrali komórki macierzyste, które hodowali w specjalnym roztworze i po namnożeniu "zmuszali" do przeobrażenia się w czerwone krwinki. Gdy udało się uzyskać ich wystarczająco dużo, komórki oznakowano i wstrzyknięto z powrotem do organizmu dawcy.

Link dostarczył: Dawid Misiuda

czwartek, 1 grudnia 2011

W Polsce powstał najszybszy mikroprocesor (z rodziny mikrokontrolerów 8051)

Newsy, Aktualności — Sprzęt, Komponenty: W Polsce powstał najszybszy procesor — CRN
Digital Core Design zaprezentował procesor DQ80251. Jak zapewnia firma, jest to najszybszy 16/32- bitowy mikrokontroler na świecie.

DQ80251 jest taktowany z częstotliwością 300 MHz. Wskaźnik wydajności na platformie Dhrystone 2.1 wynosi 56,76, co według producenta oznacza, że procesor działa najszybciej wśród układów z rodziny 8051 (standard stworzony przez Intela). Produkty tego typu można stosować w rozmaitych urządzeniach elektronicznych, m.in. telefonie, monitorze, gamepadzie, routerze i automatyce przemysłowej.

Firma znajduje się w Bytomiu i zajmuje się produkcją różnych układów w tym mikrokontrolerów PIC, hardware debuggerów (procesorów do wykrywania błędów i przekłamań w układach w czasie rzeczywistym bez opóźniającego wpływu na działanie urządzenia jak to ma miejsce w przypadku programów)

Strona producenta:
http://www.dcd.pl/ipcores/270/

sobota, 19 listopada 2011

Naukowcy z Palo Alto RC opracowali drukowany układ scalony z pamięcią

Naukowcy z Palo Alto Research Center (PARC) i pracujący dla norweskiej firmy Thinfilm Electronics stworzyli elektroniczny drukowany system przetwarzania danych. Składa się on z pamięci oraz układu przetwarzania i jest pierwszym niskokosztowym układem przetwarzania danych, który może odczytywać, zapisywać i przetwarzać dane. Istnieje możliwość dodania do układu wynalezionej już drukowanej pamięci, dla zwiększenia dostępnych zasobów danych.
















Więcej przeczytasz na stronie nauka w Polsce PAP

środa, 2 listopada 2011

Microsoft Kinect - reklama ukazująca ciekawe możliwości trójwymiarowej analizy obrazu

Obecnie nie brzmi to już jak opowiadanie science Fiction. Obserwowanie i analiza trójwymiarowa (zastosowane dwie kamerki) "w locie" ruchu człowieka to jak najbardziej możliwa w zastosowaniu technologia.  Z tego co pamiętam w Polsce też były prowadzone przez niektóre firmy takie badania pod kątem zastosowania w zdalnym monitoringu osób niepełnosprawnych (tak aby komputer sam wezwał pogotowie na podstawie analizy obrazu np upadającego na podłogę człowieka i danych z sond medycznych podpiętych na jego ciele).

W związku z poniższym  filmem kojarzy mi się scenka z filmu o UFO dotycząca sterowania takim pojazdem :)

Kinect Effect - YouTube


Kinect Effect

wtorek, 25 października 2011

Latający samochód

Latający samochód Terrafugia to jeden z najważniejszych wynalazków roku 2010 wg magazynu "Time". Jak sądzisz czy taki latający samochód ma przyszłość i czy szybko się pojawi również na polskich drogach i polskim niebie? | Toluna
Latający samochód Terrafugia to jeden z najważniejszych wynalazków roku 2010 wg magazynu "Time". Jak sądzisz czy taki latający samochód ma przyszłość i czy szybko się pojawi również na polskich drogach i polskim niebie?

Przeczytaj więcej na stronie toluna.com

Samochód latający w tej formie nie wydaje mi się kuszący, ale gdyby inny zastosowanie innego napędu pozwoliło na bardziej klasyczne kształty (podobne do współczesnych samochodów) to mając dużo pieniędzy pewnie bym się skusił.

Link dostarczył Dawid Misiuda

niedziela, 23 października 2011

Przyszłość transportu drogowego i kolejowego ? - sądzę że tak

Jak można wykorzystać takie zjawiska jeśli udałoby się stworzyć nadprzewodnik pracujący w temperaturze pokojowej. Na razie to domena laboratoriów fizycznych, ale być może już w niedalekiej przyszłości będzie to możliwe na skalę przemysłową.

Nadprzewodnictwo i efekt blokowania kwantowego

czwartek, 20 października 2011

Przyszłościowa proteza oka

Naukowcy wiedzą już, w jaki sposób przesyłać wyraźne, kolorowe obrazy prosto do mózgu

Badania zespołu prof. Petera Schillera z MIT mają na celu skonstruowanie protezy zmysłu wzroku bezpośrednio oddziałującej na korę mózgową. Prestiżowy magazyn PNAS opublikował właśnie pracę Schillera opisującą eksperyment na rezusach widzących obrazy nieistniejących przedmiotów przesyłane do ich mózgów prosto z komputera.

Przeczytaj więcej na stronie
Sukces w pracach nad sztucznym wzrokiem

Link dostarczył: Dawid Misiuda

środa, 19 października 2011

Silnik plazmowy napędzany kryptonem - polska myśl techniczna

Elektryczne silniki plazmowe typu Halla są przyszłością astronautyki, mają jednak istotną wadę: gazem roboczym jest w nich trudno dostępny i drogi ksenon. Naukowcy z Instytutu Fizyki Plazmy i Laserowej Mikrosyntezy w Warszawie zbudowali silnik, w którym wykorzystają znacznie tańszy gaz szlachetny: krypton.

Przeczytaj więcej klikając w poniższy link
Polacy zbudowali elektryczny silnik plazmowy napędzany kryptonem - elektroonline.pl

niedziela, 16 października 2011

Promieniowanie sloneczne posłuży do dezynfekcji wody.

Zespół badawczy z amerykańskiego Purdue University opracował prototyp innowacyjnego systemu dezynfekującego wodę, który może pomóc 800 milionom ludzi na świecie, nie mającym zapewnionego dostępu do wody pitnej.
Przeczytaj więcej na stronie z oryginalnym artykułem:
Promieniowanie słoneczne pomoże zdezynfekować wodę | Żądni wiedzy – popularyzacja nauki

Informacje wyszukał: Dawid Misiuda

piątek, 23 września 2011

Obraz z mózgu na komputerze. O krok od rejestracji snu.

Do niesamowitego odkrycia doszło na Uniwersytecie Kalifornii w Berkeley, gdzie naukowcom udało się przechwycić powiązaną ze wzrokiem aktywność w mózgu i zrekonstruować na jej podstawie obraz, na który patrzyła badana osoba. Celem prowadzonych badań jest zobrazowanie tego, co dzieje się w umysłach ludzi, którzy nie mogą porozumiewać się werbalnie.
Przeczytaj więcej na stronie : Filmy z naszych mózgów kiedyś na YouTube? | PGS Tech

sobota, 10 września 2011

Lekko zmodyfikowana metoda hartowania stali - o wiele lepsze rezultaty


Ekspozycja stali na temperaturę 1100 stopni Celsjusza i błyskawiczne studzenie jej, tak by cały proces nie trwał dłużej niż kilka sekund, skutkuje trwałą modyfikacją struktury stali oraz wzrostem jej wytrzymałości nawet o 7 procent w stosunku do najmocniejszych stali martenzytowych, donosi „Materials Science and Technology”.

Przeczytaj więcej w artykule Ekstremalne wzmocnienie stali w mgnieniu oka | Żądni wiedzy – popularyzacja nauki

poniedziałek, 5 września 2011

Wspomagacze ludzkich możliwości - dla wojskowych i nie tylko


Przyszłość jest teraz, a wspomagana zbroja Iron Mana i pancerz RoboCopa lada chwila przestaną być fantastyką. W laboratoriach i garażach zapaleńców powstają projekty najrozmaitszych urządzeń, które mają zwiększyć możliwości człowieka - część z nich nawet już działa. Wybraliśmy kilka najciekawszych:
Więcej przeczytasz na Człowiek 2.0 - 12 wspomagaczy ludzkich możliwości

Link do artykułu dostarczył Dawid Misuda

sobota, 27 sierpnia 2011

Jak badania CERN wpływają na rozwój technologii sieciowych.

Protony? Ciemna materia? To wszystko abstrakcja. Tak naprawdę Wielki Zderzacz Hadronów to potężna maszyna do generowania gigantycznych ilości danych. Jak radzi sobie z nimi CERN?
Przeczytaj więcej na stronie CERN. Co się dzieje z informacjami z akceleratora?

Link do artykułu dostarczył Dawid Misiuda

poniedziałek, 22 sierpnia 2011

Auta bez kierowcy

Mają być bezpieczne, ekologiczne i wygodne, a nawet same się prowadzić. Samochody przyszłości to samochody dla ludzi starych.

Co by było, gdyby samochody prowadziły się same? Bez kierowcy odwoziłyby nam pewnie dzieci do szkoły, starszą ciocię na badania do przychodni, a nas do domu po zakrapianej imprezie. Może raz na zawsze moglibyśmy zapomnieć o stresie związanym z egzaminem na prawo jazdy. Bo po co nam ono, skoro i tak wszędzie, bez naszego udziału czy pomocy, zawiezie nas inteligentny samochód? I pewnie spadłyby nam koszty pracy, bo może i ciężarówki z owocami nie wyślemy bez człowieka, ale na trasie nie będzie już musiał robić tak częstych przerw na odpoczynek.

Czy jedzie z nami kierowca?

czwartek, 18 sierpnia 2011

Elektryczny skuter z nowoczesnymi rozwiązaniami

Vectrix - elektryczna przyszłość

2007.04.16 Thrillco

Co może mieć wspólnego maksiskuter z bateryjkami?

Vectrix to amerykańska, nowatorska marka, która za cel postawiła sobie zbudowanie zeroemisyjnego skutera turystycznego, czyli takiego, który z powodzeniem będzie konkurował np. z Suzuki Burgmanem. Po wielu latach badań, projektów i testów udało się. Powstał pierwszy wielkoformatowy skuter, zasilany wyłącznie prądem elektrycznym.

Przeczytaj więcej na stronie:   Vectrix - elektryczna przyszłość

piątek, 12 sierpnia 2011

Coś o komputerach kwantowych

"W porównaniu do komputerów kwantowych nawet najpotężniejszy superkomputer jest śmiesznie słaby. A my właśnie się uczymy budować takie maszyny"
Bardzo ciekawy artykuł na temat budowy i zalet komputerów kwantowych. Polecam.
Poskromić kwanty

Artykuł zaproponował: Dawid Misiuda

środa, 10 sierpnia 2011

sobota, 18 czerwca 2011

piątek, 27 maja 2011

Rewolucyjne akumulatory dla samochodów elektrycznych

Naukowcy z Uniwersytetu w Illinois skonstruowali nowoczesne akumulatory, które mogą zrewolucjonizować wiele dziedzin naszego życia.

Nowe akumulatory łączą w sobie zalety baterii i kondensatorów. Z jednej strony są w stanie zgromadzić znaczne ilości energii, z drugiej – jak kondensator – oddać i przyjmować ją bardzo szybko, bez ryzyka, że ulegną uszkodzeniu. To właśnie możliwość szybkiego ładowania i rozładowywania może okazać się ich podstawową zaletą.



Więcej przeczytasz na blogu:
Rewolucyjne akumulatory dla samochodów elektrycznych | ZIMNA FUZJA
oraz na stronie
http://motoryzacja.interia.pl/wiadomosci/ciekawostki/news/nowy-rewolucyjny-akumulator-kiedy-trafi-pod-maski,1613315,1718
źródłem informacji jest strona: http://www.nature.com/nnano/index.html


poniedziałek, 16 maja 2011

Laserowy zapłon zamiast świecy w samochodach

Laserowy zapłon zamiast świecy w samochodach


Laserowy zapłon może zwiększyć sprawność silników spalinowych, co zmniejszyłoby zanieczyszczenie środowiska i obniżyło koszty eksploatacji - informuje serwis "EurekAlert". Przeczytaj więcej na temat: Laserowy zapłon zamiast świecy w samochodach

poniedziałek, 18 kwietnia 2011

3d w urządzeniach ipad

To nie żadne "efakty specjalne" ale realistyczny widok:




Technika opiera się o śledzenie głowy osoby w pobliżu urządzenia ipad za pomocą wbudowanej kamerki i obliczanie widoku z perspektywy danej osoby w czasie rzeczywistym.

środa, 13 kwietnia 2011

zimna fuzja vs elektrownie atomowe

Elektrownia atomowa jest za droga - Informacje w Interia360.pl - wiadomości, dziennikarstwo obywatelskie
Elektrownia atomowa jest za droga

Autor: Pan_Dzikus (zredagowany przez: Magda Głowala-Habel)

Słowa kluczowe: elektrownia, E-Cat, atomowa, zimna, fuzja, energia, Andrea, Rossi, Sergio, Focardi, LENR

2011-04-08 11:53:38
Rossi i Focardi - dwóch geniuszy

Rossi i Focardi - dwóch geniuszy / fot. freeenergytruth
Unijni politycy z niejasnych przyczyn, których można się jedynie domyślać, już jakiś czas temu wyruszyli na krucjatę przeciwko naturalnemu, zdrowemu i pożytecznemu składnikowi powietrza jakim jest CO2.

Krucjata polega na tym, że nałożono na europejską gospodarkę kaganiec w postaci limitów emisji dwutlenku węgla. Widać według biurw unijnych ten rachityczny rozwój jakim odznaczała się unijna gospodarka był za duży i trzeba było ją jeszcze bardziej zgnębić. Ponieważ w Polsce ponad 90% energii elektrycznej pochodzi ze spalania węgla a zapotrzebowanie na prąd rośnie, stało się konieczne wybudowanie nowych elektrowni, które nie emitowałyby CO2.

Jednym z najprostszych i najbardziej oczywistych rozwiązań jest budowa elektrowni atomowej. Dlatego polscy politycy, którzy tak ochoczo zgodzili się na limity emisji CO2, teraz będą budować elektrownię atomową. Ponieważ nie wierzę im za grosz, szybko chwyciłem za kalkulator węsząc w całej tej inicjatywie wielki przekręt.

Rzeczpospolita podaje, że PGE szacuje koszt budowy elektrowni atomowej o mocy 3000 MW na 35 do 55 mld zł. Przyjmując bardzo optymistycznie, że koszt rzeczywiście wyniósłby jedynie 35 mld zł daje to 11 666 666,67 zł za 1 MW. Czy to drogo? Można w ciemno strzelać, że tak, i jak się okazuje faktycznie jest to drogo.

Istnieje alternatywa

Firma Toshiba oferuje reaktor 4S (Super Safe, Small, Simple czyli Super Bezpieczny, Mały i Prosty). Kosztuje 20 mln dolarów, ale przy produkcji seryjnej cena byłaby z pewnością niższa. Jego moc wynosi 20 MW. Jak łatwo policzyć koszt jednego MW to 6 000 000 zł. Trzysta reaktorów Toshiba 4S miałoby taką samą moc jak moc planowanej elektrowni atomowej, a byłby od niej tańsze o 17 mld zł. Co najmniej 17 mld zł.

Ich cena to nie jedyna zaleta.

Zamiast jednej elektrowni atomowej dostarczającej prąd do jednej trzeciej kraju i będącej de facto monopolistą mielibyśmy trzysta elektrowni od kilkunastu czy kilkudziesięciu dostawców. Więcej dostawców to większa konkurencja i niższe ceny. Mniejsze odległości do klientów to mniejsze straty przesyłowe.

Jeśli nawali jedna wielka elektrownia to miliony ludzi nie będą miały prądu. Gdyby w każdym miasteczku i na każdym osiedlu była mała elektrownia atomowa, to w przypadku jej awarii nie miałoby prądu kilkanaście czy kilkadziesiąt tysięcy ludzi, zresztą brakujący prąd szybko dostarczyłaby konkurencja z innych elektrowni. Należy również pamiętać o tym, że 300 elektrowni atomowych to o 299 celów więcej do zbombardowania w przypadku wojny.

Rząd co i rusz porusza swymi zafrasowanymi głowami wypowiadając mądre kwestie o potrzebie dywersyfikacji dostawców energii i bezpieczeństwie energetycznym państwa a postępuje tak, jakby mu chodziło o coś zupełnie przeciwnego. Ze wszech miar stara się ograniczyć ilość tych dostawców. Świadczy o tym reglamentacja rynku i konieczność zdobycia koncesji na produkcję prądu.

Tak więc pomysł budowy jednej elektrowni o mocy 3000 MW jest nie tylko drogi, ale i niepraktyczny. Toshiba 4S to nie jedyny mały reaktor atomowy. Powstało, lub niedługo powstanie, jeszcze kilka innych, ale elektrownie atomowe to na szczęście nie jedyne i nie najtańsze rozwiązanie.

Coś jeszcze lepszego?

Ta alternatywa to zimna fuzja jądrowa. Fuzja jądrowa to zjawisko zachodzące we wnętrzu gwiazd i polegające na łączeniu się dwóch lekkich jąder atomów w cięższe jądro atomowe. W wyniku fuzji mogą powstawać obok nowych jąder też wolne neutrony, protony, cząstki elementarne i cząstki alfa. Jest to zjawisko egzotermiczne i zachodzi w gwiazdach. Szkopuł w tym, że reakcji fuzji termojądrowej wymaga temperatury rzędu milionów Kelvinów i ogromnego ciśnienia. Choć ludzie potrafią zainicjować taką reakcję, to nie jest ona przydatna do pozyskiwania energii, chyba że chcemy tę energię pozyskać po to, by zniszczyć parę miast w wybuchach bomb termojądrowych.

Obecnie w wielu laboratoriach pracuje się nad uzyskaniem kontrolowanej reakcji termojądrowej, która mogłaby posłużyć do produkcji ciepła i prądu, ale niestety jeszcze nie udało się uzyskać w ten sposób nadwyżek energii.

Oprócz kontrolowanej reakcji termojądrowej naukowcy pracują również nad zimną fuzją, czyli reakcją łączenia jąder atomowych w temperaturze niemalże pokojowej, przynajmniej w porównaniu z tą, jaka panuje wewnątrz Słońca. Zimna fuzja podzieliła fizyków, część wyśmiewa możliwość jej zaistnienia nazywając badania nad nią szarlatanerią, a część poszukuje jej niestrudzenie niczym Rycerze Okrągłego Stołu poszukiwali świętego Graala a alchemicy kamienia filozoficznego.

Poniekąd zresztą zimna fuzja jest św. Graalem i kamieniem filozoficznym, bo dzięki niej możliwe byłoby uzyskanie praktycznie darmowej energii.

23 marca 1989 roku dwaj fizycy, Stanley Pons z University of Utah i Martin Fleischmann z University of Southampton, ogłosili, że wynaleźli prostą metodę wykonania zimnej fuzji atomów deuteru, poprzez elektrolizę ciężkiej wody z użyciem porowatej elektrody palladowej. Część naukowców potwierdziła osiągnięcie tych naukowców, część im zaprzeczyła i w gruncie rzeczy nie wiadomo, czy to była prawda pogrzebana przez naukowców-zawistników czy ściema dwóch spryciarzy.

Jakby nie było, mam

Dobre wieści

14 stycznia 2011 roku dwaj włoscy naukowcy, Andrea Rossi i Sergio Focardi z Uniwersytetu Bolońskiego na konferencji prasowej ogłosili odkrycie zimnej fuzji niklowo-wodorowej i zaprezentowali reaktor produkujący około 12,4kW ciepła, do którego działania potrzebne jest 400 W energii elektrycznej zaś do zainicjowania reakcji 1000 W.

Katalizator Energii, jak go zwą twórcy, jako paliwa używa proszku niklowego, wodoru i nieujawnionego jeszcze katalizatora. W wyniku fuzji nikiel zamieniany jest w miedź, a otrzymywane jest ciepło. Mnóstwo ciepła.

Reaktor o mocy 12,4 kW potrzebuje zaledwie 100 g niklu na pół roku działania i 1 g wodoru na dzień. Rossi zapowiedział, że w przyszłym roku ruszy sprzedaż reaktorów przeznaczonych dla przemysłu o mocy 20 kW. Ich cena ma wynieść 3500 euro, a cena modułu do produkcji prądu z wytworzonego ciepła 1500 euro. Koszt paliwa na pół roku to 1300 euro. Oznacza to, że koszt kWh energii cieplnej wyniósłby 0,059 zł podczas, gdy dla najlepszego węgla kamiennego przy cenie 660 zł za tonę wynosi 0,081 zł a dla oleju napędowego przy cenie 4 zł za kg wynosi 0,327 zł.

Sprawność zamiany energii cieplnej na elektryczną wynosi ok. 30%, dlatego prąd pochodzący z Katalizatora Energii byłby trzykrotnie droższy niż ciepło. Jego cena wyniosłaby 0,178 zł za kWh. Należy jednak pamiętać, że każda technologia, która jest początkowo droga, po paru latach drastycznie tanieje. Gdyby niklowy puder kosztował tyle co zwykły nikiel, czyli 10 zł za 100 g to koszt kWh(t) wyniósłby 0,000205 zł, a koszt kWh(e) 0,001 zł. Poza tym obecna generacja reaktorów zimnej fuzji działa tylko na jedną dziesiątą swoich możliwości. Zużywają jedynie 10% niklu i pozostałe 90% można ponownie wykorzystać.

Należy się spodziewać, że za kilka lat ich moc wzrośnie dziesięciokrotnie i będą wykorzystywać cały nikiel. Przy obecnej sprawności reaktorów Rossiego-Facardiego jeden gram niklu daje tyle energii co 35,8 kg benzyny. Moc wszystkich elektrowni jądrowych to 370 GW. Reaktory fuzji nikowo-wodorowej potrzebowałyby przy obecnej sprawności 7400 ton niklu rocznie dla osiągnięcia takiej mocy. Zaledwie 0,617% rocznego wydobycia niklu.

Konsekwencje

Jeśli odkrycie zimnej fuzji jest prawdą, a jestem niemal na sto procent pewny, że to prawda, oznacza to, że budowa elektrowni atomowej w Polsce nie ma żadnego sensu. 3 GW energii elektrycznej byłoby w stanie dostarczyć 45 tys. Katalizatorów energii, które kosztowałyby w sumie 9 mld zł. Prawie czterokrotnie mniej niż minimalny koszt planowanej elektrowni atomowej.

Byłoby najlepiej, gdyby rząd w ogóle nie wtrącał się w to kto i jak dostarcza energię. Rynek sobie doskonale poradzi bez polityków i urzędników, którym wydaje się, że na wszystkim się znają i wszystko wiedzą.

Rewolucja

Konsekwencje tego odkrycia będą znacznie, znacznie większe. Ośmielę się twierdzić, że będzie to rewolucja większa niż rewolucja przemysłowa czy rewolucja informacyjna. Każdy będzie mógł kupić sobie taki reaktor i cieszyć się ciepłem i prądem za kilkadziesiąt złotych rocznie. Prawie zerowe koszty energii to potanienie wszystkich produktów przemysłowych i rolniczych. To zamknięcie kopalń węgla i większości szybów naftowych. Powstaną samochody o praktycznie nieograniczonym zasięgu, jak również samoloty z silnikami odrzutowymi na rozgrzane powietrze.

Stokrotnie tańsza energia oznacza wprost niesamowite podniesienie standardu życia. Otwiera ludzkości drogę do kolonizacji Układu Słonecznego i eksploatacji jego zasobów, przeciera szlak do stania się cywilizacją typu I w skali Kardaszewa.

Oczywiście, zawsze pozostaje pewna doza niepewności, iskierka podejrzenia, że to jakiś przekręt i totalna ściema. Wydawałoby się, że po tak przełomowym odkryciu wszystkie kanały telewizyjne i radiowe powinny wprost huczeć od informacji na ten temat, a na pierwszych stronach wszystkich gazet powinny się znaleźć zdjęcia Andrea Rossiego i Sergio Focardiego, a tu nic. Zupełna cisza. Być może jest to spowodowane powszechnym przekonaniem, że zimna fuzja to mit i jest niemożliwa do osiągnięcia. W końcu tak twierdzi większa część fizyków. Cóż... jak powiedział Stanisław Lem: "Gdyby ludzie robili tylko to, co wyglądało na możliwe, do dzisiaj siedzieliby w jaskiniach".

W tym miejscu warto również przytoczyć trzy prawa Arthura C. Clarka.

1. Kiedy poważany, a sędziwy naukowiec twierdzi, że coś jest możliwe, prawie na pewno ma rację. Gdy twierdzi że coś jest niemożliwe, prawdopodobnie się myli.

2. Jedynym sposobem poznania granic możliwego jest ich lekkie przekroczenie i wejście w niemożliwe.

3. Każda wystarczająco zaawansowana technologia jest nieodróżnialna od magii.

sobota, 9 kwietnia 2011

Grafen - materiał przyszłości dla komputerów

Polska nanopotęgą | rp.pl
Polska nanopotęgą
Aleksandra Stanisławska 06-04-2011, ostatnia aktualizacja 06-04-2011 01:45

Odkrycie warszawskich naukowców może zrewolucjonizować rynek komputerów
Instytut Technologii Materiałów Elektronicznych. Na zdj. dr Włodzimierz Strupiński

Grafen to niezwykły materiał. Składa się z pojedynczej warstwy atomów węgla, a jest kilkaset razy bardziej wytrzymały niż stal i w dodatku pozwala się zginać. Przewodzi prąd kilkaset razy szybciej niż miedź i znacznie lepiej niż krzem, na którym do dziś opierają się układy stosowane w elektronice, m.in. w komputerach.

Za odkrycie jego właściwości naukowcy Andre Geim i Konstantin Novoselov w ubiegłym roku dostali Nobla z fizyki.

Jednak uzyskane przez nich płatki grafenu o powierzchni kilkudziesięciu mikronów nie nadawały się do komercyjnego wykorzystania – były za małe.



Tę barierę pokonali polscy naukowcy z Instytutu Technologii Materiałów Elektronicznych oraz Wydziału Fizyki Uniwersytetu Warszawskiego. Udało im się opracować sposób przeniesienia produkcji grafenu z laboratorium do fabryki. Wykorzystali do tego dostępne dziś na rynku urządzenia do wytwarzania struktur półprzewodnikowych. O polskim sukcesie donosi najnowszy numer prestiżowego pisma „NanoLetters".

– Nasza metoda pozwoli na wytwarzanie dużych powierzchni grafenu o najwyższej jakości. A to da możliwość upakowania większej liczby urządzeń elektronicznych na małej powierzchni – tłumaczy „Rzeczpospolitej" profesor Jacek Baranowski z ITME. – W efekcie komputery będą mniejsze, oszczędniejsze i kilkaset razy szybsze.

Zdaniem profesora nowy materiał wyprze krzem, którego era w elektronice dobiega końca. – Za dziesięć lat osiągniemy kres miniaturyzacji układów krzemowych. Zastąpi je grafen – uważa prof. Baranowski.

Polacy wyprzedzili inne grupy naukowców, które na całym świecie pracowały nad metodami przemysłowej produkcji grafenu.

Co prawda wcześniej sposób znaleźli Amerykanie. Jednak ich propozycja, oparta na wykorzystaniu węglika krzemu ogrzanego do temperatury ponad 1500 st. C, ma istotne wady. Krzem odparowuje najpierw tam, gdzie występują nieregularności struktury, więc powstający w tym procesie grafen nie jest najwyższej jakości.

– Nam udało się udoskonalić tę technologię tak, że uniknęliśmy konieczności odparowania krzemu. To pozwala na wytwarzanie nieuszkodzonych i powtarzalnych płytek grafenu na skalę komercyjną – mówi „Rz" kierujący zespołem badawczym dr Włodzimierz Strupiński z ITME.

Polacy pracują teraz nad grafenowym tranzystorem, który powinien być gotowy za rok. Urządzenia takie będą pracować na częstotliwościach rzędu setek teraherców, niedostępnych dla elementów z krzemu.

piątek, 8 kwietnia 2011

E-papier - co nieco o technologii

e-Papier e-czytnik.pl
Czym jest e-papier?

To rodzaj wyświetlacza, który dąży do imitacji tradycyjnego papieru.
Autorem terminu e-papier, a zarazem wynalazcą e-papieru jest Nicholas Sheridon.

Parę słów o historii:

Pierwotnie technologia e-papieru opierała się na mikroskopijnych kulkach magnetycznych wprasowanych między dwie cienkie folie, z których jedna miała zdolność przewodzenia prądu. Kulki te z jednej strony były białe, a z drugiej czarne, a po przyłożeniu punktowego pola elektrycznego obracały się czarną stroną do powierzchni papieru. Przyłożenie silnego pola elektrycznego do całej powierzchni "kartki"powodowało obrócenie się wszystkich kulek białą stroną do powierzchni papieru i skutkowało "zmazaniem zapisu". Technologia ta została opracowana i opatentowana pod nazwą Gyricon w latach siedemdziesiątych XX w.

e-Papier Jacobsona

W latach dziewięćdziesiątych XX w. został opracowany inny rodzaj e-papieru. Jego twórcą jest Joseph Jacobson, a technologia opiera się na mikroskopijnych kapsułkach wypełnionych elektrycznie naładowanymi drobinami o białej barwie, zawieszonymi w kolorowym oleju. Drobiny wypływają na powierzchnię oleju, pokrywając ją całkowicie, a pod wpływem słabego pola elektrycznego przyłożonego od dołu papieru zostają ściągnięte na dół kapsułek i odsłaniają kolorowy olej. Na podobnej zasadzie działały wyświetlacze elektroforetyczne, w których kapsułki umieszczano w szklanej płytce. W e-papierze szkło zostało zastąpione giętką folią. Rozwiązanie to jednak miało dość poważne wady - zapis był nietrwały, a samo urządzenie bardzo wrażliwe na wstrząsy i działanie zewnętrznych źródeł pola elektrycznego.

E-Ink

Modyfikacją powyższej technologii jest tzw. cyfrowy atrament, którego twórcą jest także Jacobson. W kapsułce z przeźroczystym płynem znajdują sie białe i czarne drobiny pigmentu naładowane elektrycznie: czarne - ujemnie, białe - dodatnio. Sterowanie potencjałem elektrycznym powoduje przemieszczanie się drobin do odpowiednich miejsc wyświetlacza i generuje powstawanie obrazu.


Inne technologie

Do produkcji e-papieru wykorzystuje się także inne technologie oparte m.in. na ciekłych kryształach, wyświetlaczach elektrochemicznych i plazmowych. Elektroniczny papier ma zastąpić monitory CRT, ekrany LCD i plazmowe, OLED-y oraz inne urządzenia tego typu.

Dzięki temu, że e-papier charakteryzuje się wyjątkową giętkością i elastycznością oraz ma minimalną grubość, można go wielokrotnie zwijać i rozwijać, a mimo to nadal zachowuje swoje pierwotne właściwości. W przeciwieństwie do ekranów LCD, obraz na e-papierze nie ulega zniekształceniu przy jego wygięciu lub naciśnięciu. E-papier, w odróżnieniu od standardowych wyświetlaczy, nie świeci. Tekst widzimy w świetle odbitym, jakbyśmy czytali zwykłą papierową gazetę, dlatego nawet intensywne czytanie nie jest nużące dla oczu.
W technologii e-papieru uzyskano także bardzo wysoki kontrast porównywalny raczej z zadrukowaną kartką papieru, niż standardowym wyświetlaczem. Komfort czytania jest porównywalny z papierem, dla przykładu: współczynnik kontrastu publikacji papierowych typu gazeta codzienna wynosi ok. 7, dla wyświetlacza E-Ink sięga 11,5, a najlepsze ekrany LCD mają współczynnik na poziomie 4,6!
e-Papier jest energooszczędny. Zużywa od 0,01 do 0,001 energii wymaganej do działania konwencjonalnego wyświetlacza. Zasilanie wymagane jest tylko podczas zmiany obrazu, moc baterii zużywana jest tylko podczas "odwracania strony". Istotną cechą, niesłychanie zwiększającą użyteczność e-papieru, jest statyczny obraz -pozostaje on na ekranie pomimo odłączenia zasilania. Wszystkie wynikające z tego zastosowania trudno sobie wyobrazić.

E-papier zdominuje przede wszystkim rynki wydawnicze. W przyszłości być może zastąpi tradycyjny papier... Zrewolucjonizuje codzienną prasę i magazyny, gdyż możliwym stanie się stworzenie prawdziwych elektronicznych gazet składających się z jednej strony, na której będzie można wyświetlać kolejne artykuły czy zdjęcia, a z czasem także filmy. Obecna konstrukcja jeszcze nie pozwala na prezentację ruchomych obrazów, gdyż wyświetlacze charakteryzują się długim czasem odświeżania, który wynosi aż 1 sekundę. Ponadto nośnik będzie długowieczny - na posiadaną już kartkę za pośrednictwem sieci bezprzewodowej załadujemy treść nowego wydania, bez konieczności kupowania nowej edycji. W tej jednej giętkiej "kartce" będzie można magazynować setki książek, a dzięki dostępowi do Internetu dotrzeć do wszystkich książek dotąd wydanych. Nowoczesna technologia pozwoli na wzbogacenie książki o dodatkowe elementy, takie jak dźwięk czy ruchome obrazy, zamiast standardowych ilustracji i fotografii.

Technologia ta znalazła już zastosowanie w telefonii komórkowej nowej generacji. Wykorzystanie e-papieru jako wyświetlacza telefonu komórkowego minimalizuje zużycie energii tak dalece, że żywotność baterii wydłuża się nawet do 12 dni. Umożliwia także zmniejszenie rozmiarów telefonu.

Na rynku są już zegarki wyposażone w supercienkie i elastyczne wyświetlacze, a e-papierowy cyferblat charakteryzuje się bardzo wysokim kontrastem, dzięki czemu przypomina raczej pokrytą drukiem kartkę niż typowy wyświetlacz.

piątek, 25 marca 2011

Tańsze żarówki LED

Tańsze żarówki LED - elektroonline.pl

23 marzec 2011
Tańsze żarówki LED

Naukowcy i inżynierowie z USA wynaleźli technologię produkcji tanich i wydajnych żarówek LED. Do ich wytwarzania zastosowano technologię stosowaną w produkcji procesorów do telefonów komórkowych i komputerów - poinformował magazyn Technology Review.

Żarówki LED to najdroższe z ogniw energooszczędnych. Przyczyną jest technologia produkcji, zapewniająca długotrwały czas pracy. Jest ona wytwarzana przy zastosowaniu plastra tzw. wafla z węgliku krzemu bądź szafiru. W zależności od mocy żarówki koszt tej technologii stanowi od 30 do 60% jej ceny.

Naukowcy z Departamentu Energii USA oraz inżynierowie z małej, kalifornijskiej firmy badawczo-rozwojowej Bridgelux zmniejszyli koszt produkcji żarówek LED o 75%. Zmienili oni konstrukcję układów sterujących i technologię wytwarzania, tak, że możliwe było zastosowanie technik używanych przy tworzeniu standardowych mikroprocesorów produkowanych dla komputerów PC oraz smartfonów.

Żarówki LED są zwykle wytwarzane poprzez pokrycie żółtymi związkami fosforu świecących na bladoniebiesko diod LED, opartych na azotku galu. Po takiej operacji żarówka daje biało-żółte światło. Azotek galu jest wytwarzany na waflu z węgliku krzemu bądź szafiru. Im większy wafel, tym więcej można z niego wytworzyć diod LED, a więc ich cena będzie niższa. Technologię produkcji azotku galu na największych, jak dotąd 15 centymetrowych waflach szafirowych, opracowała niemiecka firma Osram Opto Semiconductors.

Naukowcy z Departamentu Energii i inżynierowie z Bridgelux postanowili obejść to ograniczenie używając do produkcji azotku galu 20 centymetrowych wafli krzemowych, stosowanych w produkcji mikroprocesorów dla smartfonów i komputerów. Musieli poradzić sobie z problemami, jakie powoduje zastosowanie krzemu przy procesie wzrostu azotku galu. Zachodzi on bowiem w temp 1000 st. C. Różnica naprężeń w warstwie kryształów azotku galu i waflu krzemowym podczas chłodzenia po tym procesie, powoduje pękanie kryształów azotku galu. Uniknięto tego, dodając cienką, elastyczną błonę, utrzymującą jednakowe ciśnienie w obu warstwach.

Cenę żarówki LED o mocy stanowiącej ekwiwalent tradycyjnej żarówki 60 wat, nowa technologia zmniejszyła z 40 USD do 18 USD. Bridgelux planuje także opracowanie zintegrowanego układu sterującego, co powinno przynieść dalszy spadek kosztów. Jak przewidują inżynierowie z Bridgelux, nowe żarówki LED pojawią się na rynku za około 2-3 lata.

PAP


poniedziałek, 21 marca 2011

Broń kinetyczna

Trzy gramy zamieniają pancerną ścianę w plazmę - Nasz Dziennik - Świat - Poniedziałek, 21 marca 2011, Nr 66 (3997)
Rosjanie z powodzeniem prowadzą prace nad bronią kinetyczną rozwijane dotąd przede wszystkim w USA
Trzy gramy zamieniają pancerną ścianę w plazmę

Niewielkie pociski wyrzucane z elektromagnetycznej wyrzutni osiągają prędkość 6,25 km/s. Płytka ze stalowej blachy uderzona taką bronią natychmiast wyparowuje, zamieniając się w plazmę.

Eksperci Instytutu Wysokich Temperatur z laboratorium w podmoskiewskiej Szaturze zademonstrowali wyrzutnię o napędzie elektromagnetycznym, pozwalającą rozpędzić niewielki pocisk o rozmiarach tabletki i wadze 3 gramów do tak ogromnej prędkości, że potrafi on dokonać ogromnych zniszczeń, mimo że nie przenosi żadnego ładunku wybuchowego. Ma to kolosalne znaczenie w ewentualnych zastosowaniach wojskowych. Okręt lub czołg wyposażone w tego typu broń nie przewoziłyby prochu ani innych niebezpiecznych materiałów. Trudniej jest zniszczyć pojazd, na którym nie ma co pod wpływem ostrzału wybuchnąć.
Rosyjska stacja NTV pokazała eksperyment, w którym przed wyrzutnią ustawiono trzy płytki z metalowej blachy o średnicy pomarańczy i grubości około milimetra. Po wystrzeleniu w ich stronę pocisku pierwsza płytka całkowicie zniknęła. Ogromna energia kinetyczna pędzącego kawałka metalu rozgrzała blachę do temperatury, w której żelazo nie tylko paruje (2750 st. C), ale zamienia się w plazmę, czyli stan, w którym elektrony odrywają się od jąder atomowych. Druga płytka, przez którą przeleciał pocisk, została rozdrobniona w metalowe wióry. Pozostała jedynie trzecia, przebita na wylot.
Obecnie Rosjanom udało się osiągnąć prędkość wyższą niż możliwa do uzyskania przez pociski balistyczne. - W naszym laboratorium badawczym największa szybkość to 6,26 kilometra na sekundę. To bardzo blisko do pierwszej prędkości kosmicznej - mówi, pokazując wyrzutnię, Alieksiej Szurupow, dyrektor ośrodka. Pierwsza prędkość kosmiczna wynosi 7,91 km/s. Jest to prędkość potrzebna, żeby ciało pokonało przyciąganie ziemskie i zaczęło poruszać się po orbicie. Gdyby rosyjską "tabletkę" udało się rozpędzić do takiej prędkości, mogłaby krążyć wokół Ziemi, o ile nie natrafi na żadne przeszkody. Otwiera to perspektywę zastosowań tej technologii do niszczenia celów bardzo odległych, także znajdujących się w kosmosie.

Szyna - pocisk - szyna
Technologia zastosowana w wyrzutni elektromagnetycznej oparta jest na dość prostych podstawach teoretycznych. Prawa fizyki rządzące wzbudzaniem pola magnetycznego pod wpływem przepływu prądu i ruchem ciał w tym polu znane są od XIX wieku, a obecnie naucza się ich w szkołach. Pocisk wykonany jest z materiału przewodzącego lub przynajmniej nim pokryty, a przy tym posiada własny ładunek elektryczny. Umieszczony jest pomiędzy dwoma szynami podłączonymi do prądu. Dzięki zamknięciu obwodu układ szyna - pocisk - szyna staje się elektromagnesem. Pole magnetyczne powoduje z kolei, że naładowany elektrycznie przedmiot rozpędza się.
Jednak to, co jest takie proste w teorii, nie od razu może być zastosowane zgodnie z oczekiwaniami wojskowych chcących mieć skuteczną broń i uzyskać przewagę nad konkurentami, a potencjalnie przeciwnikami. Podstawowy problem to zasilanie. Ogromna energia, z jaką porusza się pocisk, nie wzięła się znikąd. Szyny są zasilane elektrycznością, a tę trzeba do nich dostarczyć, i to z bardzo dużą prędkością, nieosiągalną dla publicznych i przemysłowych sieci przesyłowych. W Szaturze używa się kilkuset przemyślnie połączonych akumulatorów, których cały zapas energii jest uwalniany w ciągu niecałej sekundy. Z tego powodu wyrzutnie broni kinetycznej nie mogą być obecnie instalowane w czołgach lub na okrętach wojennych. Także możliwości wyrzutni stacjonarnych są słabsze od oferowanych przez technikę rakietową.
Inne problemy techniczne wynikają z wielkości energii, jaka w bardzo krótkim czasie skupia się w małym pocisku. Na jego styku z szynami pojawia się ogromna temperatura, szybko niszcząca szyny. Siły wytwarzane przez pole magnetyczne stawiają również wyrzutniom trudne wymagania konstrukcyjne. Potęguje je dodatkowo fakt przekraczania przez pocisk bariery prędkości dźwięku.
Pierwsze próby zastosowania zjawisk magnetycznych do celów wojskowych pojawiły się już podczas I wojny światowej. Badania nad tym prowadzili bez powodzenia Niemcy, a Francuz Louis Fauchon-Villeplee opatentował "aparat elektryczny do wyrzucania pocisków". Podczas kolejnej wojny w III Rzeszy gotowy był prototyp działa przeciwlotniczego o napędzie elektromagnetycznym, jednak upadek Niemiec i zakończenie wojny przerwały projekt.
Do badań nad wyrzutniami elektromagnetycznymi powrócono następnie w latach 50. w Australii, później przejęli je Brytyjczycy. To do nich należy rekord prędkości pocisku kinetycznego wynoszący 20 km/s. Dotyczył jednak bardzo małego ładunku bez siły niszczącej. Obecnie najbardziej zaawansowaną technologią wyrzutni elektromagnetycznych dysponuje amerykańska Marynarka Wojenna, dla której pracują ośrodki badawcze w Virginii oraz uniwersytetu w Austin, w Teksasie. Prowadzone są testy z wyrzutnią pocisków o masie 3,2 kg, które osiągają prędkość 2,5 km/s. Ich energia kinetyczna wynosi 9 megadżuli. To wystarczy, żeby przebić pancerz czołgu. Z myślą o niszczycielach klasy USS Zumwald, które wejdą do służby w 2013 roku, projektowane są wyrzutnie nadające pociskom energię 11 megadżuli, o prędkości 5,8 km/s. W założeniach mają trafiać w cele odległe o 200 mil morskich (370 km) z dokładnością do 5 metrów. Ostatnie ujawnione testy tej broni odbyły się w 2008 roku, zaś jej dalszy rozwój jest objęty tajemnicą.
Prace nad bronią kinetyczną to przykład na współczesne oblicze wyścigu zbrojeń pomiędzy największymi militarnymi potęgami świata. Układy rozbrojeniowe nakładają ograniczenia w rozwoju broni atomowej, międzynarodowy konsensus zakazuje prac nad chemicznymi i biologicznymi środkami rażenia. W tej sytuacji oprócz rozwoju broni konwencjonalnej trwają poszukiwania sposobów wojskowego zastosowania wszelkich znanych zjawisk i praw natury. Każde państwo liczy na to, że dzięki odkryciom swoich naukowców wejdzie w posiadanie unikalnej technologii dającej przewagę nad konkurencją.

Piotr Falkowski

środa, 16 marca 2011

Rodzaje reaktorów atomowych

Na świecie pracuje prawie 450 reaktorów energetycznych - Biznes w Onet.pl
Według najnowszych danych Międzynarodowej Agencji Energii Atomowej (MAEA), przed trzęsieniem ziemi w Japonii na świecie działały 442 reaktory energetyczne, dostarczające 375.000 GW energii elektrycznej. 65 jest w budowie, pięć jest wyłączonych na dłuższy czas.

Dodatkowo działa kilkadziesiąt reaktorów badawczych - jak np. polski w Świerku pod Warszawą - oraz różnego typu reaktory eksperymentalne. Zazwyczaj reaktory badawcze produkują też izotopy promieniotwórcze do zastosowań w medycynie i przemyśle. Z kolei reaktory eksperymentalne służą do testowania nowych technologii, które w przyszłości mogłyby znaleźć zastosowanie również i w energetyce.

Najpopularniejszą obecnie technologią jest reaktor wodny ciśnieniowy - PWR. Jako generację III+ rozwija ją większość największych producentów - koncerny Areva, Westinghouse oraz rosyjski Atomstrojprojekt. Z kolei koncern GE-Hitachi buduje i projektuje kolejne generacje reaktorów wodno-wrzących - BWR. Reaktory z Fukushimy to właśnie BWR-y z końca lat 60. produkcji GE. Specyficzną technologią jest CANDU - opracowany w Kanadzie ciężkowodny reaktor ciśnieniowy, który może pracować na naturalnym - niewzbogaconym - uranie. Z kolei w Wielka Brytania pd lat 50. rozwijała technologię GCR - reaktorów chłodzonych gazem, które ciągle pracują. Brytyjczycy kolejne siłownie zamierzają jednak stawiać w technologii PWR.

Pierwsza elektrownia dostarczająca prąd do sieci ruszyła w 1954 r. w ZSRR, jednak pierwszym w pełni komercyjnym - obliczonym na produkcję prądu - projektem była siłownia Calder Hill w Wielkiej Brytanii, która ruszyła w 1956 r. Rok później ruszyła pierwsza elektrownia w USA.

Najstarsze działające reaktory energetyczne - wczesnej II generacji - mają obecnie około 40 lat i w najbliższych latach będą sukcesywnie wyłączane. 40-letnie - uszkodzone po trzęsieniu ziemi - bloki elektrowni Fukushima Daiichi miały ostatecznie stanąć pod koniec marca.

Niektóre reaktory II generacji uzyskały ostatnio certyfikaty, pozwalające im działać jeszcze do drugiej połowy dekady.

W styczniu 2011 r. do sieci podłączono reaktor Kaiga 4 w Indiach o mocy elektrycznej 200 MW. W 2010 r. do sieci podłączono pięć reaktorów: dwa w Chinach i po jednym w Rosji, Indiach i Południowej Korei. Definitywnie zamknięto eksperymentalny francuski reaktor Phoenix. Ruszyły natomiast budowy 15 reaktorów: dziewięciu w Chinach, 2 w Rosji, 2 w Indiach i po jednym w Japonii i Brazylii.

W 2009 r. do sieci podłączono po jednym reaktorze w Japonii i Indiach. Ostatecznie zamknięto dwa bloki w Japonii i reaktor w Ignalinie na Litwie. Ruszyła natomiast budowa 12 bloków, z czego aż 9 w Chinach, 2 w Rosji i jednego w Korei Południowej. Wznowiono też budowę dwóch bloków w Mochovcach na Słowacji oraz rosyjskiej pływającej dwureaktorowej elektrowni na barce Akademik Łomonosow.

W Stanach Zjednoczonych działają obecnie 104 reaktory energetyczne typu PWR lub ABWR (ulepszona wersja BWR produkcji GE-Hitachi). 28 starych bloków definitywnie zamknięto. Amerykańskie firmy energetyczne planują bądź rozważająbudowę kilkudziesięciu kolejnych bloków, w większości III+ generacji, jak reaktory EPR Arevy, AP-1000 Westinghouse oraz ESBWR GE-Hitachi.

Francja prawie 80 proc. - największy odsetek na świecie - energii elektrycznej czerpie z elektrowni atomowych. Działa tam 58 reaktorów PWR, kolejny jest w budowie a jeszcze jeden w planach. 9 reaktorów w starej technologii GCR z lat 1959-72 zostało już definitywnie zamkniętych, podobnie jak i dwa eksperymentalne reaktory typu FBR.

Za potencjalnie największy rynek uważa się Chiny, które planują do 2030 r. wybudować ok. 100 reaktorów. Obecnie w Chinach pracuje 13 reaktorów PWR - w tym 2 CANDU, w budowie jest 26 bloków typu PWR, a w bezpośrednich planach jest budowa następnych 27 PWR.

W Japonii przed trzęsieniem ziemi działały 54 reaktory PWR, BWR i ABWR. W kraju tym znajduje się największa elektrownia atomowa na świecie Kashiwazaki-Kariwa. Jej 5 reaktorów BWR i 2 ABWR dostarcza w sumie niemal 8000 MW mocy elektrycznej. Japończycy budują też 3 reaktory ABWR, w planach mieli 8 kolejnych ABWR (w tym 2 w miejsce zamykanych bloków w Fukushima Daiichi) i 2 PWR. 5 starych bloków zostało już ostatecznie zamkniętych.

W Rosji działa obecnie 21 reaktorów typu PWR (Rosjanie określają tą technologię jako VVER - PAP) oraz 11 RBMK - ten typ reaktora uległ awarii w Czernobylu. 10 kolejnych PWR jest w budowie, 8 projektów zostało z kolei zawieszonych bądź anulowanych. 5 starych siłowni - głównie z reaktorami PBMK - zostało już zamkniętych.

Na Ukrainie działa 15 reaktorów PWR rosyjskiej konstrukcji, 8 projektów zostało zawieszonych bądź anulowanych. Ostatnio Ukraina podpisała jednak z Atomstrojprojektem umowę na wznowienie budowy 2 reaktorów PWR. 4 bloki typu RBMK w Czernobylu (w tym zniszczony przez awarię) zostały zamknięte, projekt kolejnych 2 anulowano.

Kanada ma 18 działających reaktorów w technologii CANDU, 4 obecnie nie działają a 3 najstarsze z lat 62-72 są już ostatecznie wyłączone.

Wlk. Brytania zamknęła definitywnie 26 starych reaktorów GCR z lat 50. i 60. Ciągle działa 18 reaktorów AGR - ulepszonej wersji GCR - oraz 1 PWR. W planach Brytyjczycy mają budowę kolejnych reaktorów, m.in. 4 PWR francuskiej Arevy.

W Niemczech działa obecnie 17 reaktorów BWR i PWR, 19 zostało już zamkniętych, budowa 4 została zawieszona bezterminowo bądź przerwana. W poniedziałek kanclerz Niemiec Angela Merkel ogłosiła, że zamierza czasowo wyłączyć 7 najstarszych elektrowni do czasu rozważenia, czy mogą one dalej działać.

Na Tajwanie działa 6 reaktorów, do 2012 ma ruszyć budowa dwóch kolejnych typu ABWR. W Finlandii są po 2 reaktory PWR i BWR, trwa tam budowa francuskiego reaktora EPR. Szwecja ma 7 BWR i 3 PWR, 3 najstarsze reaktory są już zamknięte. W najbliższym czasie Szwedzi mają zamiar rozbudować swoją energetykę jądrową.

W Czechach działa 6 rosyjskiej konstrukcji PWR, budowę 2 kolejnych wstrzymano, koncern CEZ zamierza rozpisać nowy przetarg na nie. Na Słowacji działają 4 reaktory PWR, również rosyjskiej konstrukcji, 2 kolejne są w budowie, 3 najstarsze zostały już zamknięte.

wtorek, 1 marca 2011

Thunderbolt - przesył danych 10Gb/s

DIGIT - Serwis Digit Online
Końcówka złącza Thunderbolt   Kliknij, aby powiększyćKońcówka złącza Thunderbolt

Kontroler  Kliknij, aby powiększyćKontroler

Thunderbolt - schemat integracji kontrolera  Kliknij, aby powiększyćThunderbolt - schemat integracji kontrolera
Thunderbolt to oficjalna nazwa technologii znanej dotychczas jako "Light Peak". System transferu danych ma umożliwić przesył informacji z szybkością do 10 Gb/s.
Taka przepustowość ma pozwolić np. na przeniesienie z jednego nośnika
na inny "pełnometrażowego filmu HD w niespełna 30 sekund".



Technologia
Thunderbolt została wprowadzona na rynek w ramach technicznej
współpracy z firmą Apple i początkowo będzie dostępna w nowej linii laptopów MacBook Pro (miały one swoją premierę 24 lutego br.). Nie jest to szczególną niespodzianką - to właśnie Apple uchodzi za inspiratora powstania tego interfejsu (z pomysłem na stworzenie nowej technologii przesyłu danych firma miała wystąpić do Intela jeszcze w 2007 r.)

Thunderbolt to oficjalna nazwa technologii znanej dotychczas jako "Light Peak". System transferu danych ma umożliwić przesył informacji z szybkością do 10 Gb/s. Taka przepustowość ma pozwolić np. na przeniesienie z jednego nośnika na inny "pełnometrażowego filmu HD w niespełna 30 sekund".

Technologia Thunderbolt została wprowadzona na rynek w ramach technicznej współpracy z firmą Apple i początkowo będzie dostępna w nowej linii laptopów MacBook Pro (miały one swoją premierę 24 lutego br.). Nie jest to szczególną niespodzianką - to właśnie Apple uchodzi za inspiratora powstania tego interfejsu (z pomysłem na stworzenie nowej technologii przesyłu danych firma miała wystąpić do Intela jeszcze w 2007 r.)

czwartek, 24 lutego 2011

Dotykalny hologram



Naukowcy z Uniwersytetu Tokijskiego opracowali technologię, która jest pierwszym, znaczącym krokiem udoskonalenia pochodzącym od myszki i klawiatury - hologramy dotykalne.

[Hiroyuki Shinoda, profesor Uniwersytetu Tokio]:
"Do tej pory hologram był tylko dla oczu, i jeśli próbowałeś go dotknąć, ręka go przenikała. Ale teraz mamy technologię, która dodaje również uczucia dotyku do hologramów.

Technologia składa się z oprogramowania, które wykorzystuje fale ultradźwiękowe do tworzenia ciśnienia w kierunku dłoni użytkownika dotykającego wyświetlany hologram.

Naukowcy użyli dwóch kontrolerów Wiimote z systemu gier Nintendo Wii do śledzenia dłoni użytkownika.

Technologia ta została zaprezentowana na dorocznej konferencji grafiki komputerowej SIGGRAPH i do tej pory była testowana tylko ze stosunkowo prostymi obiektami.

Ale jego twórcy mają wielkie plany związane z dotykalnymi hologramami w przyszłości.

[Hiroyuki Shinoda, profesor Uniwersytetu Tokio]:
"Na przykład, wykazano, że w szpitalach, zanieczyszczenie między ludźmi może być przenoszone przez przedmioty, które są często dotykane przez wielu ludzi. Jeśli więc można zmienić zwykłe przełączniki na ich wirtualne odpowiedniki, to już nie musisz się już martwić o kontakt z zanieczyszczeniem. To jest jedno z zastosować, które da się łatwo przewidzieć. "

Dotykalne hologramy mogłyby być użyte do wielu różnych rzeczy ... począwszy od przełączników światła a kończąc na książkach, które każdorazowo pojawiają się, gdy są potrzebne, a następnie znikają kiedy nie są potrzebne.

Hologramy mogą też zastąpić potrzebę tworzenia nowych interfejsów do technologii, ponieważ mogą one ulegać zmianie bez konieczności robienia nowego fizycznego produktu.


Źródło tej informacji

Tłumaczenie: Dariusz Tupaj

czwartek, 17 lutego 2011

ESP - opis działania

Elektroniczni pomocnicy - ASR i ESP - Moto - WP.PL
Jeżeli samochód podczas jazdy zbyt szybko wjedzie w zakręt lub wykona gwałtowny manewr np. sławny test łosia, wówczas możliwa jest utrata przyczepności i wypadnięcie z trasy. W przypadku samochodu wyposażonego w opisywany moduł pierwsze oznaki poślizgu jednego z kół są sygnałem dla komputera o konieczności przyhamowania jednego lub więcej kół. Jest to możliwe dzięki czujnikom ABS, które ustawiono przy każdym kole. Podają one ilość obrotów, jakie wykonują koła. Jeżeli więc jakiekolwiek koło zacznie wpadać w poślizg, komputer będzie o tym wiedział w ułamku sekundy. Jego reakcją będzie włączenie hamulca tylko w tym kole lub kołach, które zakłócają poprawną jazdę samochodu. Jeżeli np. na zakręcie w lewo samochód jedzie zbyt szybko i zamiast skręcać jedzie na wprost, należy przyhamować lewe tylne koło. Taka reakcja naprowadzi auto na właściwy tor jazdy. Tak, więc moduł regulacji stateczności dynamicznej jest w stanie kompensować błędy kierowcy i zapobiegać poślizgowi wówczas, kiedy kierowca stracił już panowanie nad pojazdem.

Bogusław Korzeniowski

Systemy ABS ASR i ESP

ABS, ESP, ASR - co to znaczy? - Fakt.pl
ABS - (ang. Anti-Lock Braking System) to układ stosowany w naszych autach w celu zapobiegania blokowaniu się kół podczas hamowania. Jak to działa? Otóż układ regulacje siłą nacisku na szczękach hamulcowych, oddzielnie w każdym kole.

ASR - to system, którego głównym zadaniem jest niedopuszczenie do nadmiernego poślizgu kół pojazdu podczas przyspieszania (objawiającego się ich buksowaniem). W fazie przyspieszenia pojazdu jeśli jakieś koło (lub kilka kół) ma tendencje do poślizgu, układ za pośrednictwem swojego kalkulatora optymalizuje poślizg opon.

ESP - (ang. Electronic Stability Program, elektroniczny program stabilizacji) to układ elektroniczny stabilizujący tor jazdy samochodu podczas pokonywania zakrętu przejmujący kontrolę nad połączonymi układami ABS i ASR. System ten uaktywnia się samoczynnie, przyhamowując jedno lub kilka kół, z chwilą, gdy odpowiedni czujnik wykryje tendencję do wyślizgnięcia się samochodu z zakrętu.

środa, 16 lutego 2011

Technologia mikrohybrydowa

Peugeot Polska - Aktualności
Technologia mikrohybrydowa e-HDi

Po modelu 508, nowy Peugeot 308 będzie drugim samochodem Marki, korzystającym z innowacyjnej technologii mikrohybrydowej e-HDi, czyli nowej generacji systemu Stop & Start.

Innowacyjność polega na połączeniu dieslowskiego silnika 1,6 HDi, spełniającego normę Euro 5, z dwufunkcyjnym alternatorem, umożliwiającym wprowadzenie funkcji „Stop/Start”. System sterowania pracą alternatora (Volt Control) umożliwia odzyskiwanie energii w czasie hamowania i gromadzenie jej w akumulatorze hybrydowym. Zgromadzona energia używana jest przy rozruchu silnika (e-booster), co pozwala jednostce napędowej HDi uzyskać:

• o 15% niższe zużycie paliwa w ruchu miejskim,
• o 5 g/km niższą emisję CO2 w oficjalnych cyklach pomiarowych,
• o 40% szybszy rozruch (400 ms) w porównaniu do układu Stop & Start, korzystającego tylko z rozrusznika,
• odłączanie silnika już od 20 km/h przy przekładni manualnej (8 km/h przy przekładni sterowanej elektronicznie),
• wysoką kulturę pracy systemu Stop & Start (ciche działanie, brak wibracji).

W opisanym systemie użyto dwufunkcyjnego alternatora drugiej generacji, mającego moc 2,2 kW i pozwalającego na wykonanie 600 tysięcy rozruchów silnika. System Stop & Start może zostać wyłączony przez kierowcę za pomocą przycisku umieszczonego na desce rozdzielczej.


czwartek, 10 lutego 2011

Blog o nowoczesnych technologiach

Do utworzenia tego blogu zainspirowała mnie informacja o technologii mikrohybrydowej w Citroenie C4, ale nie tylko, jest to ogólnie temat, który mnie pociąga. Będę więc miał o czym pisać.