• Przegląd Telekomunikacyjny

    Obejmuje zagadnienia naukowo-techniczne i techniczne dotyczące: elektroniki, teletransmisji, komutacji, radiokomunikacji, radiofonii i telewizji, technik multimedialnych, miernictwa.

2018-12

zeszyt-5714-przeglad-telekomunikacyjny-2018-12.html

 
W numerze m.in.:
Komunikacja ze stacjami elektroenergetycznymi w świetle normy IEC 61850 DOI:10.15199/59.2018.12.1

W powszechnej świadomości istnieje pogląd, że norma komunikacyjna IEC 61850 (PN-EN 61850) [1], [2] dotyczy wewnętrznych rozwiązań teleinformatycznych w stacjach elektroenergetycznych, a także na obszarze innych obiektów energetyki, jakim są na przykład elektrownie wodne [3] czy rozproszone źródła energii [4]. Ta ugruntowana już przez blisko dwadzieścia lat norma sukcesywnie się rozwija. W efekcie doprowadziło to do tego, że zalecane w niej rozwiązania komunikacyjne przekroczyły granice wymienionych obiektów energetyki, w szczególności granice stacji elektroenergetycznych. Stało się to możliwe dzięki wydanym w latach 2010-2016 raportom technicznym (Technical Reports - TR) obejmującym: - zasady komunikacji pomiędzy stacjami elektroenergetycznymi (IEC TR 61850-90-1 [5]); - zasady komunikacji pomiędzy stacjami elektroenergetycznymi a systemami nadrzędnymi, takimi jak systemy dyspozytorskie czy systemy nadzoru (IEC TR 61850-90-2 [6]); - wytyczne do budowy rozległych sieci teleinformatycznych na potrzeby systemów elektroenergetycznych (IEC TR 61850- 90-12 [7]). Wymienione dokumenty stanowią uzupełnienie raportu IEC TR 61850-90-4 [8], zawierającego wytyczne do budowy lokalnych sieci teleinformatycznych w obiektach energetyki, w szczególności w stacjach elektroenergetycznych. Artykuł zawiera wprowadzenie w zagadnienia budowy sieci LAN we współczesnych stacjach elektroenergetycznych na kanwie zaleceń normy IEC 61850 i wydanego raportu technicznego IEC TR 61850-90-4 [8]. Omówiono w nim także ogólne zasady komunikacji pomiędzy urządzeniami z wykorzystaniem koncepcji ich modeli komunikacyjnych. Następnie, na podstawie raportu technicznego IEC TR 61850-90-2 [6], przedstawiono zasady komunikacji systemów nadrzędnych z urządzeniami automatyki stacji. Z kolei, na podstawie raportu technicznego IEC TR 61850- 90-1 [5], omówiono zasady komunikacji pomiędzy stacjami na przykładzie transmisji danych pomiędzy urządzeniami automatyki stacyjnej, ... więcej»

Wirtualizacja SD-WAN: praktyczna implementacja NFV DOI:10.15199/59.2018.12.3
(Radosław Czaja, Zbigniew Gawron, Paweł Kaczmarek)

1. INTRODUCTION The telecommunication industry is experiencing pressure to match rapidly changing customer requirements and to reduce costs at the same time. Innovative operators are moving away from legacy network hardware towards datacenter micro-services to reduce both OPEX and CAPEX, and to decrease the service delivery time by making the process fully automatic [10]. Thanks to NFV (Network Functions Virtualization) [1], it is possible to get automated network deployment and administration as well as reduce the related cost. NFV offers a different approach to network operations, allowing various types of Virtual Network Functions (VNFs) to run on standard servers. Each virtual component can be a standalone function or a part of full-scale network, depending on the virtual service design. In order to minimize the amount of manual activities during network service creation and device enabling, the Zero Touch Provisioning (ZTP) concept was introduced which provides the ability to perform service turn-up without site-specific pre-configuration or manual intervention, over any kind of access network even wireless one e.g. Long Term Evolution (LTE). This document describes the use of NFV with one of the typical VNF applications: Software-Defined Wide Area Networks (SD-WAN) [3]. The document is organized as follows. Chapter 2 presents reference architecture according to ETSI and revises a few examples of virtual network functions [5]. Next discusses sample application based on a real business NFV use case. The chapter is also partially focused on the technical implementation of automatic configuration and management of network services. Fourth chapter focuses on SD-WAN network function deployment, and analysis of various aspects of service creation and VNF automation. Chapter 5 allows reader to go through a quick discussion that highlights main aspects of the topic. Last chapter provides a set of final conclusions. 2. REFERENC... więcej»

Wydajność i funkcjonalność programowalnej ścieżki danych w platformie NFV DOI:10.15199/59.2018.12.2
(Radosław Czaja)

1. INTRODUCTION Shortly after the NFV architecture introduction there were a few technologies proposed that allowed to solve the problem of performance and scalability of software based datapaths. Standard approach of using Linux based bridge connections became insufficient as binding multiple interfaces using bridge was not stable enough to provide proper Quality of Service (QoS) [11]. Multiple vendors faced the same challenge of requirement for high performance software datapath. The first approach proposed as a remedy was software switching. The biggest disadvantage of it was lack of guaranteed performance, as software switching for multiple high speed small sized frame connections became problematic when given little hardware resource [13]. While software switching is easy to adapt and still great approach for non QoS dependent solutions, there was a niche in the area of high-performance software datapath solutions. Over the next years technologies of Data Plane Development Kit (DPDK) and Single Root I/O Virtualization (SR-IOV) were introduced, with both being software-based solutions working at the hardware level. Both ideas are based on excluding Network Interface Card (NIC) from the system (unbinding from kernel) and either do software processing of the packet before kernel (DPDK) or spliting unbinded physical interface into multiple virtual private ones (SR-IOV). Both of these technologies improved the performance significantly in terms of latency and throughput. After DPDK was released a concept of DPDK modified Open vSwitch (OVS) arrived, where OVS would work on interfaces unbound from the operating system and the packet processing on physical interfaces was handled by software instead of kernel. Throughout this paper the concept of software datapath in carrier grade enviroment will be introduced. Reader will have the opportunity to explore common datapath solutions in OVS, SR-IOV with addition of PCI Passthrough i... więcej»

2018-11

zeszyt-5686-przeglad-telekomunikacyjny-2018-11.html

 
W numerze m.in.:
Laureaci Konkursu im. Stanisława Staszica na najlepsze produkty innowacyjne "LAUR INNOWACYJNOŚCI 2018" VIII edycja
Celem Konkursu im. Stanisława Staszica, ogłoszonego pod nazwą "Laur innowacyjności", jest promocja innowacyjnych produktów, technologii i usług, a także innych rozwiązań mających innowacyjny charakter. Konkurs zorganizowano w przekonaniu, że kluczem do rozwoju polskiej gospodarki jest rozwój innowacyjności, promowanie produktów innowacyjnych i ich twórców oraz pomoc w przyspieszeniu aplikacji innowacyjnych rozwiązań, tak potrzebnych naszemu krajowi. W Konkursie mogą uczestniczyć polskie i zarejestrowane w Polsce podmioty oraz osoby fizyczne z Polski i z krajów, w których działają polonijne stowarzyszenia naukowo-techniczne. Dopuszczono także uczestnictwo w nim podmiotów zagranicznych, kt... więcej»

Uroczysty koncert ku czci Marszałka Józefa Piłsudskiego i Jego żołnierzy (Janusz M. Kowalski)
Wprzygotowanym przez środowiska techniczne sfederowane w NOT bogatym programie obchodów 100-lecia odzyskania przez Polskę Niepodległości, dominuje przypomnienie i duma z wkładu polskich inżynierów i techników w budowę polskiej państwowości. Takie dokonania jak budowa Centralnego Okręgu Przemysłowego, portu i miasta Gdyni, magistrali węglowej, przemysłu chemicznego i lotniczego do dziś budzą podziw. Postacie wybitnych inżynierów, a zarazem działaczy państwowych, aby wymienić tylko Gabriela Narutowicza, Ignacego Mościckiego, Eugeniusza Kwiatkowskiego czy Tadeusza Wendę, zapisały się złotymi zgłoskami w najnowszej historii naszej Ojczyzny. Ale nie samym życiem zawodowym inżynierowie żyją ... więcej»

Wybrane aspekty praktyczne modelowania i prognozowania rozwoju przestępczości DOI:10.15199/59.2018.11.3
(Zbigniew M. WAWRZYNIAK, Grzegorz BOROWIK, Radosław PYTLAK, Paweł CICHOSZ)

Współcześnie rozwój wiedzy w jej obszarach aplikacyjnych, w tym także w kryminalistyce i kryminologii, zależy głównie od sposobu tworzenia i przekazywania użytecznej informacji. Wiedza tworzona na podstawie danych i przetwarzanej informacji może być wykorzystana w modelowaniu i prognozowaniu procesów, a także masowych zjawisk społecznych lub indywidualnych zachowań, w tym w odniesieniu do skomplikowanego zjawiska przestępczości [22]. Zastosowanie wielkoskalowych narzędzi do analityki danych jest również obecne w obszarach zarządzania procesami biznesowymi powiązanymi z aspektami społecznymi [26]. Stało się więc koniecznością używanie tych technik do modelowania i prognozowania zjawisk społecznych, a w tym przestępczych [22]. Przenikanie się wielu dziedzin społeczno-politycznych w domenie informacyjnej podkreśla ich wewnętrzne związki (przez tzw. zmien- ne endogeniczne) i konieczność wydobywania wiedzy w celu tworzenia modeli wyjaśniających (eksplanacyjnych) opartych na obserwacjach (danych eksperymentalnych) [38]. W organizacjach Policji i organów ścigania wielu państw funkcjonuje duża liczba zautomatyzowanych systemów zarządzania. Metody predykcyjne w technikach policyjnych są obecnie szeroko stosowane i na ich podstawie organy ścigania rutynowo podejmują decyzje operacyjne [32]. W tych procesach znajdują zastosowanie klasyczne i teoretyczne dziedziny wiedzy (matematyka, fizyka czy chemia) wspierane technologiami informacyjnymi, np. badanie semantycznego obrazu, dźwięku i tekstu [1]. Metaanalizy wykazały, że zarządzanie i oddziaływanie policyjne typu predictive policing mają istotne znaczenie dla zmniejszania przestępczości [33], [34]. Rozwój modeli predykcyjnych w zastosowaniu do prognozowania zdarzeń przestępczych, na podstawie analizy obserwowanych danych, wymaga dostarczenia rzeczywistych informacji o zdarzeniach. Pociąga to za sobą konieczność autoryzowanego (ograniczonego) prawa dostępu osób do danyc... więcej»

Komunikacja M2M i kooperacyjny inteligentny system transportowy DOI:10.15199/59.2018.11.4
(Małgorzata Gajewska, Sławomir Gajewski)

Obecnie znajdujemy się na przedprożu wdrażania systemów radiokomunikacyjnych 5G. W związku z tym otwierają się nowe możliwości, wyzwania, ale również zagrożenia. Perspektywa rozwoju sieci z komunikacją typu M2M (Machine to Machine), dzięki którym jest możliwa automatyczna wymiana informacji pomiędzy różnymi urządzeniami, często bez udziału człowieka, w połączeniu z nowymi funkcjami, które zapewni sieć 5G, może przyczynić się do zwiększenia naszego bezpieczeństwa, ale jednocześnie budzić niepokój [1, 2, 3]. Najbliższa przyszłość to czas, w którym transmisja danych będzie się odbywała w zasadniczej części nie tylko bez naszego udziału, ale niejednokrotnie również poza naszą świadomością. Urządzenia, które znajdują się w naszym najbliższym otoczeniu, będą pełniły funkcję bloków nadawczo- -odbiorczych, a my staniemy się częścią składową rozmaitych systemów. Jednocześnie otwierają się nowe możliwości, które będą chroniły nasze życie i zdrowie. Jednym z takich rozwiązań jest system kooperacyjnego inteligentnego systemu transportowego C-ITS (Cooperative Intelligent Transport Systems) [4], który będzie wdrażany na obszarze Europy. W marcu 2018 roku Parlament Europejski przyjął rezolucję [5] w tej sprawie. System ten to nic innego jak praktyczna realizacja komunikacji typu V2X (Vehicle to Everything), dzięki której będzie możliwa wymiana danych w czasie rzeczywistym pomiędzy pojazdami oraz pojazdami i różnymi elementami infrastruktury drogowej [6, 7, 8, 9]. Ma to doprowadzić do zwiększenia bezpieczeństwa w ruchu drogowym, a w szczególności zmniejszyć liczbę śmiertelnych ofiar wypadków. Opublikowanie tej rezolucji [5] to efekt wieloletnich prac komisji [4]. Przygotowywały one zalecenia dla takiego systemu, m.in. dla Parlamentu Europejskiego, na podstawie wyników różnorodnych prac badawczo-rozwojowych, co stanowi olbrzymi krok naprzód. Proponowane rozwiązania C-ITS przewidują wykorzystanie w przyszłości systemów 5G, które jeszcze efekty... więcej»

Sieci radiowe następnych generacji i nowe technologie dla przyszłych systemów komunikacyjnych DOI:10.15199/59.2018.11.1
(Józef MODELSKI)

Ostatnie lata z pewnością przejdą do historii jako okres rewolucji cyfrowej i łączności bezprzewodowej, głównie w wyniku spektakularnego rozwoju systemów telefonii komórkowej, telewizji cyfrowej oraz bezprzewodowych sieci transmisji danych. Systemy komunikacji bezprzewodowej stają się główną dźwignią wzrostu i rozwoju w sektorze telekomunikacyjnym. Techniki radiowe umożliwiają budowę sieci, zastępujących przewodowe połączenia między różnymi urządzeniami, również w zakresie sprzętu powszechnego użytku i ułatwiają bezpośrednią komunikację chociażby między takimi urządzeniami, jak komputery przenośne, stacje robocze, akcesoria komputerowe, telefony czy sprzęt RTV. Wielousługowe sieci radiowe mają szansę stać się punktem węzłowym w drodze do tworzenia globalnego społeczeństwa informacyjnego. W nowoczesnych sieciach telekomunikacyjnych współgrają ze sobą techniki przewodowe, jak i bezprzewodowe, tworząc zintegrowane, elastyczne systemy dostępowe umożliwiające tworzenie sieci konwergentnych. Współczesne systemy multimedialne wkraczają w coraz większym stopniu we wszystkie dziedziny życia. Wraz z rozwojem nowoczesnych technik komputerowych i telekomunikacyjnych znacznie ułatwione staje się dostarczanie użytkownikom różnego typu danych multimedialnych, w tym także zapewnienie transmisji sygnału wizyjnego. Dla abonentów korzystających z wielu istniejących na rynku systemów i sieci dostępowych ważne jest nie tylko uzyskanie dostępu do Internetu i zasobów sieciowych (jak to było jeszcze kilka lat temu), ale także zapewnienie możliwości korzystania z coraz szerszego zakresu usług, w szczególności multimedialnych. Na rynku pojawiają się coraz lepiej wyposażone telefony, stające się powoli małymi terminalami abonenckimi, integrującymi różnego typu usługi telekomunikacyjne, transmisji danych i wreszcie szeroko rozumianej rozrywki. Dzięki temu TELE-RADIO-ELEKTRONIKA-INFORMATYKA ROK ZAŁOŻENIA 1928  ROCZNIK XCI  ISSN 1230-3496 ... więcej»

2018-10

zeszyt-5647-przeglad-telekomunikacyjny-2018-10.html

 
W numerze m.in.:
Porównanie wybranych funkcji standardów LTE /LTE -A i TETRA w obszarach dostępu do sieci, priorytetyzacji i wywłaszczania pod względem odporności usług na przeciążenia sieci DOI:10.15199/59.2018.10.2
(Tomasz WOJTOWICZ)

1. Introduction Wireless mission-critical communication standards have significantly evolved over the last 20 years. Rooted in legacy, analogue and conventional systems, based on years of use and experience, two dominating narrow-band mission-critical standards have emerged, Tetra and P25 (Project 25), which are trunking and digital, with most implementations being IP based. Over the time, based on end-user inputs, many mechanisms were introduced in the area of access control (including radio link access), prioritisation, quality of service and preemption, which proven to be critical in congested network scenarios. In such systems, an emergency call must always go through, no matter how loaded is the network, but on the other hand, it should also be capable to effectively serve hundreds or even thousands of first responders operating in a relatively small (few cells) geographical area. As there is a common agreement across standard organisations, user community, governments and regulators [18, 5, 4, 3], that the next generation of these networks will be LTE based, it is valuable to assess how capable is this 4G standard comparing to the narrow-band LMR ones. This paper is structured as follows. - In Section 2 we outline the most significant differences between LMR systems, which were often owned and operated by the Public Safety Agency (PSA ) and LTE based solutions that may be private, but may also be on top of the commercial carrier network, or allow a roaming into such a network. We also provide a short overview of where the congestion may occur in LTE networks. - In Section 3 we shortly describe a selection of typical incident types (scenarios), from the perspective of first responder communication needs that may often lead to network congestion. From these scenarios, we derive a set of features that would be required by PPDR users to deal with congestion. - In Section 4 network access control mechanisms are covered for ... więcej»

Techniki mobilne w telekomunikacji Stan rozwoju i perspektywy DOI:10.15199/59.2018.10.1
(Remigiusz PROKOPIAK)

W Ericsson Mobility Report z czerwca 2018 r. [2] podaje się prognozę wzrostu mobilnego ruchu danych na corocznym poziome 39%. Dla operatorów borykających się z problemem coraz większego zapotrzebowania na pojemność sieci, jedynym pocieszeniem może być przewidywana, malejąca tendencja rocznych przyrostów ruchu danych. Na przykład w latach 2015 i 2016 w Ericsson Mobility Report przywidywano coroczne wzrosty tego ruchu na poziomie 45% lub 40% odpowiednio w latach: 2015-2021 i 2016-2022. Nasuwa się pytanie, czy na poczynania operatorów telekomunikacyjnych będą wpływały tylko wymagania dotyczące wzrostu pojemności. Okazuje się, że nie tylko. Usługi telekomunikacji ruchomej powinny być także szybsze (mniejsze opóźnienia, większe gwarantowane i maksymalne przepływności), powinny obsługiwać duże liczby urządzeń przypadających na km2, zapewniać duże prędkości poruszania się urządzeń końcowych, zapewniać bezpieczeństwo oraz być niezawodne. Poza tym rozwiązania techniczne powinny być tanie. W celu wprowadzenia tak wielu, często przeciwstawnych, wymagań, ciała standaryzacyjne zarysowują obszary zastosowań (use cases) oraz rozwiązania techniczne, które powinny realizować potrzeby danego obszaru zastosowań. Artykuł poniższy jest próbą krótkiego podsumowania aktualnego status quo. W pierwszej części przedstawiono punkty widzenia różnych interesariuszy mobilnego rynku telekomunikacyjnego (operator, klient, ciało standaryzacyjne) na kierunki rozwoju technik mobilnych, w drugiej części opisano niektóre rozwiązania techniczne wspierające potrzeby wymienione w części pierwszej. Punkty widzenia interesariuszy na rozwój radiokomunikacyjnych technik mobilnych Perspektywa Klienta Rynku Telekomunikacyjnego Każdy operator telekomunikacyjny chce wiedzieć, co jest ważne dla jego klienta. Niestety, zazwyczaj taka informacja, jako kluczowa dla podejmowania decyzji biznesowych, rzadko objęta TELE-RADIO-ELEKTRONIKA -INFORMATYK A ROK ZAŁOŻENIA 1928 &#6154... więcej»

Cyberbezpieczeństwo - problem globalny DOI:10.15199/59.2018.10.3
(Andrzej ZIELIŃSKI)

Pojęcie i obszar cyberbezpieczeństwa najogólniej zdefiniowano w Wikipedii [1]: Cyberbezpieczeństwo, bezpieczeństwo komputerowe lub bezpieczeństwo IT to ochrona systemów komputerowych przed kradzieżą i uszkodzeniem ich sprzętu, oprogramowania lub informacji, a także przed zakłóceniem lub błędnym kierowaniem świadczonych przez nie usług. Cyberbezpieczeństwo obejmuje kontrolowanie fizycznego dostępu do sprzętu, a także ochronę przed szkodami, które mogą pochodzić z dostępu do sieci, wprowadzania danych i kodu. Ze względu na globalny charakter Internetu oraz coraz większe jego znaczenie gospodarcze, społeczne i polityczne, zapewnienie bezpiecznego użytkowania sieci internetu stało się strategicznym problemem dla wszystkich współczesnych społeczeństw i jest centralnym problemem szeroko określonego, jak podano, cyberbezpieczeństwa. Niestety, zachowanie należytego bezpieczeństwa w Internecie wiąże się z koniecznością walki z nasilającą się przestępczością, która polega zasadniczo na rozpowszechnianiu się złośliwego, szkodliwego oprogramowania, tzw. malware (określenie zbudowane z połączenia słów malicious software). Przeciwdziałanie malware ma rozmaite oblicza, począwszy od walki z wieloma wirusami komputerowymi, które były pierwszym objawem naruszania bezpieczeństwa w sieci, aż po realizację współczesnych wyzwań związanych z poważnymi zagrożeniami ekonomicznymi i przestępstwami gospodarczymi. Do takich należą włamania bankowe i/lub wręcz rujnowanie gospodarek firm, a także naruszanie tajemnic państwowych (włącznie ze szpiegostwem), a ostatnio - jak się okazało - wpływanie na procesy polityczne (wybory i inne ważne decyzje) o wielkim znaczeniu państwowym, a jedną z metod w tym względzie stało się szerokie produkowanie i rozpowszechnianie tzw. fake newsów. Zjawisko fake newsów, polegające na produkowaniu i rozpowszechnianiu w Internecie nieprawdziwych lub wręcz kłamliwych i szkalujących informacji, wykracza poza ramy definicji cybe... więcej»

2018-8-9

zeszyt-5602-przeglad-telekomunikacyjny-2018-8-9.html

 
W numerze m.in.:
Szerokopasmowe systemy komunikacyjne na morzu - scenariusze użycia i przykładowe instalacje DOI:10.15199/59.2018.8-9.1
(Józef WOŹNIAK, Krzysztof GIERŁOWSKI, Michał HOEFT, Michał LEWCZUK)

Stan bieżący, potrzeby i oczekiwania w odniesieniu do e-nawigacji i systemów łączności szerokopasmowej Systemy radiokomunikacji na morzu pełnią ważne funkcje związane z szeroko rozumianym bezpieczeństwem żeglugi i efektywną nawigacją, przekazując informacje o lokalizacji i kursach jednostek, ostrzegając przed zagrożeniami oraz dostarczając środków komunikacji dla służb ratownictwa morskiego. Wśródrealizowanych obecnie usług można wymienić wspomnianą identyfikację i lokalizację statków zapewnioną przez system automatycznej identyfikacji AIS (Automatic Identification System), jak również globalny morski system bezpieczeństwa i alarmowania GMDSS (Global Maritime Distress and Safety System) [1, 2] z jego licznymi komponentami. Analiza wymaganych przez IMO (International Maritime Organization) systemów i usług świadczy, że obecne podejście do systemów łączności na morzu koncentruje się (prawie wyłącznie) na dostarczaniu zestawu usług krytycznych związanych z bezpieczeństwem. Są one zaprojektowane i znormalizowane tak, by były niezawodnie realizowane przy użyciu kanałów danych o niskiej czy wręcz bardzo niskiej przepustowości [3]. Usługi dodatkowe, takie jak pobieranie cyfrowych map nawigacyjnych, częsta aktualizacja map pogodowych [4,5], automatyczna optymalizacja trasy lub różne zdalne usługi monitorowania i utrzymania, nie wspominając już o dostępie do Internetu w celu poprawy komfortu pracy załogi i podróży pasażerów, wymagają znacznie bardziej wydajnych systemów komunikacyjnych. Analizy dotyczące sys- TELE-RADIO-ELEKTRONIKA-INFORMATYKA ROK ZAŁOŻENIA 1928  ROCZNIK XCI  ISSN 1230-3496 8-9/2018 * Katedra Teleinformatyki, Wydział Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej, e-mail: jowoz@eti.pg.edu.pl; krzysztof.gierlowski@pg.edu.pl; michal.hoeft@pg.edu.pl; michal@lewczuk.pl Józef WOŹNIAK*, Krzysztof GIERŁOWSKI*, Michał HOEFT*, Michał LEWCZUK* Szerokopasmowe systemy komunikacyjne na morz... więcej»

SYSTEM ZARZĄDZANIA HETEROGENICZNYMI SIECIAMI RADIOWYMI DOI:10.15199/59.2018.8-9.42
(Grzegorz Szmit, Jerzy Łopatka)

1. WSTĘP Masowy wzrost zapotrzebowania na wymianę informacji pomiędzy użytkownikami mobilnymi stymuluje równie dynamiczny rozwój systemów radiokomunikacyjnych. Prowadzone prace badawcze nad systemami radiowymi doprowadziły do powstania technologii radia definiowanego programowo, co w znaczny sposób uprościło implementację rozwiązań radiowych. Ułatwiło to również zachowanie interoperacyjności z systemami radiowymi starszej generacji. Szybki rozwój bezprzewodowych systemów łączności stwarza szereg istotnych problemów związanych z ich zastosowaniem. Pierwszy problem to niedobór zasobów radiowych, który próbuje się rozwiązywać poprzez zastosowanie radiostacji inteligentnych (ang. cognitive radio) stanowiących następny etap rozwoju radiostacji definiowanych programowo. Radiostacje kognitywne to radiostacje upoważnione do zmiany swoich parametrów transmisyjnych na podstawie interakcji ze środowiskiem, w którym pracują. Z tego faktu wynika kolejny problemem związany z szybkiego rozwój urządzeń radiowych, a mianowicie uruchomienie efektywnego systemu zarządzania sieciami radiowymi. Nowoczesne radiostacje są wielokanałowymi węzłami radiowymi, które potrafią zmieniać swoje parametry pracy. Najpowszechniej realizowane jest to przez oprogramowanie działające w ramach radiostacji definiowanej programowo. Interakcja ze środowiskiem może zawierać aktywną negocjację oraz komunikację z innymi użytkownikami pasma lub/i pasywną detekcję i podejmowanie decyzji przez radio. Zakres przeprowadzanych zmian konfiguracji przez współczesne radiostacje nie dotyczy tylko ustawień określających parametry nadawania i odbioru, ale może obejmować czynniki wpływające np. na strukturę sieci lub wynikać z aktywności użytkowników. Dostosowanie parametrów pracy oparte jest na ustawicznym monitoringu zasadniczych czynników opisujących stan elementów mających wpływ na pracę sieci radiowej. Pozwala to skutecznie unikać celowych zakłóceń i/lub interferencji z ... więcej»

ENERGOOSZCZE˛DNE CENTRUM PRZETWARZANIA DANYCH (Ewa Niewiadomska-Szynkiewicz, Piotr Arabas)
1. WPROWADZENIE Post˛ep wielu dziedzin nauki, m.in. fizyki i chemii, zale˙zy od rozwoju nowatorskich energooszcz˛ednych technologii teleinformatycznych umoz˙liwiaja˛cych przetwarzanie wielkich ilo´sci danych. Według danych statystycznych obcia˛z˙enie serwerów w centrach przetwarzania danych kształtuje si˛e na poziomie 10-50% ich mo˙zliwo´sci [4]. Utrzymywanie zapasów mocy obliczeniowej zwia˛- zane jest z koniecznos´cia˛ zapewnienia gwarancji jakos´ci 1 Praca finansowana przez Narodowe Centrum Nauki, grant 2015/17/B/ST6/01885. oraz odporno´sci usług na nagłe zmiany szybko´sci napływania zada´n, co skutkuje zwi˛ekszeniem zu˙zycia energii elektrycznej. Współczesne centra przetwarzania danych udoste˛pniaja˛ce usługi chmury obliczeniowej (cloud computing) to zło˙zone, rozproszone systemy. Na efektywno´s´c działania takich systemów istotny wpływ ma szybko´s´c przetwarzania danych przez jednostki obliczeniowe oraz przepustowos´c´ ła˛cza˛cych je sieci. Na podstawie prowadzonych w ostatniej dekadzie obserwacji sieci Internet do´s´c powszechnie uwa˙za si˛e, ˙ze tempo redukcji mocy elektrycznej potrzebnej do przetworzenia jednego bitu danych ruchu sieciowego jest zbyt niskie w stosunku do rosna ˛cego wykładniczo wzrostu zapotrzebowania na przepustowos ´c´ we˛złów. Podsumowuja˛c, koszty zwia˛zane z rosna ˛cym zapotrzebowaniem na energie˛ elektryczna˛ moga˛ wywrze´c istotny wpływ na tempo rozwoju systemów HPC (high performance computing) oraz upowszechnianie si˛e nowych usług teleinformatycznych. Wykazano, ˙ze przy obecnie stosowanych rozwia˛zaniach klaster exaflopowy pobierałby gigawaty mocy. Niebagatelne znaczenie maja˛ w tym konteks´cie takz˙e aspekty ekologiczne, zwia˛zane z wzmoz˙ona˛ emisja˛CO2 do atmosfery. Strategie sterowania i mechanizmy decyzyjne dla systemów HPC i sieci teleinformatycznych, uwzgl˛edniaja ˛ce róz˙ne kryteria w ocenie ich działania, tj. techniczne, ekonomiczne oraz społeczne, stanowia˛ przedmiot bada´n pro... więcej»

KONCEPCJA SYSTEMU ZABEZPIECZENIA RADIOSTACJI POLA WALKI OPARTEGO NA MONITOROWANIU PARAMET DOI:10.15199/59.2018.8-9.34
(Joanna Głowacka, Wojciech Bednarczyk, Michał Ciołek, Krzysztof Parobczak, Jarosław Wojtuń)

1. WSTĘP W trakcie działań taktycznych najpowszechniejszym i najczęściej stosowanym systemem na współczesnym polu walki jest system łączności radiowej. System ten powinien być skalowalny oraz zapewniać szybki i niezawodny przepływ informacji. Ponadto powinien on zapewniać poufność, integralność i dostępność przesyłanych informacji. Spełnienie powyższych wymagań może okazać się szczególnie trudne w nieprzyjaznym środowisku prowadzenia operacji. Specyfika i ograniczenia środowiska, a także charakter prowadzonych działań, przyczyniają się do zmian standardowych wymagań w zakresie bezpiecznej komunikacji. Typowo stosowane mechanizmy bezpieczeństwa związane z uwierzytelnianiem, szyfrowaniem danych, wykorzystujące znane metody kryptograficzne, okazują się niewystarczające. W celu zapewnienia bezpieczeństwa łączności radiowej stosowane są różnorodne mechanizmy ochrony informacji oraz rozwiązania utrudniające wykrycie, namierzenie i przeciwdziałanie emisji własnych środków radiowych. Realizacja działań w środowisku taktycznym może wiązać się z zagrożeniem przejęcia środków łączności przez osobę nieuprawnioną. Istniejące do tej pory rozwiązania uwzględniają problem nieuprawnionego dostępu do środków łączności tylko podczas inicjalizacji działań. W przypadku przechwycenia urządzenia nieuprawniony użytkownik uzyskuje dostęp do zasobów sieci, zgodnie z wcześniej przeprowadzoną procedurą autoryzacji. Wymagane jest więc opracowanie odpowiedniego systemu bezpieczeństwa, który umożliwi wykrycie stanu uniemożliwiającego obsługę i ochronę radiostacji przez jej operatora, a tym samym możliwość przejęcia jej przez osobę nieuprawnioną. Przedstawione w artykule rozwiązanie jest odpowiedzią na wyżej opisany, często identyfikowany w publikacjach dotyczących zapewnienia bezpieczeństwa komunikacji w sieciach taktycznych, problem przejęcia uwierzytelnionych radiostacji. Dalsza część artykułu została podzielona następująco: w rozdziale drugim opi... więcej»

BIOMETRIA OBRAZU DŁONI JAKO CZĘŚĆ SYSTEMU WIELOPOZIOMOWEGO UWIERZYTELNIANIA UŻYTKOWNIKA DOI:10.15199/59.2018.8-9.9
(Agata Giełczyk, Michał Choraś, Rafał Kozik)

1. WSTĘP W ostatnim czasie liczba aktywnych subskrypcji kart SIM wzrosła i według raportu Międzynarodowej Unii Telekomunikacji ITU1 krajach wysoko rozwiniętych przekroczyła już liczbę mieszkańców. To oznacza w praktyce, że wiele osób posiada telefon komórkowy, a znaczna część z nich posiada więcej niż jeden aktywny numer komórkowy. Telefon od dawna nie służy tylko do wysyłania wiadomości SMS i dzwonienia. Obecnie wykorzystywany jest do odbierania poczty elektronicznej, edycji dokumentów tekstowych czy arkuszy kalkulacyjnych, a także m.in. do korzystania z bankowości elektronicznej poprzez zlecanie przelewy i decydowanie o swoich finansach przez aplikację mobilną. To wszystko sprawia, że na telefonach komórkowych pojawia się wiele danych wrażliwych, które wymagają szczególnych zabezpieczeń. Istnieje wiele sposobów zwiększenia bezpieczeństwa danych przechowywanych w pamięci telefonu: wykorzystywanie numeru PIN podczas odblokowywania telefonu, używanie programów antywiruso- 1https://www.itu.int/en/ITU-D/Statistics/Pages/stat/defau lt.aspx wych, łączenie się jedynie z zaufanymi sieciami bezprzewodowymi WiFi, nie korzystanie z podejrzanych linków, instalowanie aplikacji jedynie ze sprawdzonych źródeł oraz zwracanie szczególnej uwagi na uprawnienia aplikacji (np. gra logiczna, która wymaga dostępu do kontaktów i zdjęć przechowywanych w pamięci telefonu może i powinna budzić wątpliwości użytkownika). Jednak z lektury licznych dostępnych w Internecie raportów o bezpieczeństwie urządzeń mobilnych wynika, że nie są one zabezpieczone w wystarczający sposób, a dane zgromadzone w ich pamięci mogą ze znacznym prawdopodobieństwem wyciec. W raporcie firmy NowSecure2 wskazano główne zaniedbania użytkowników w dziedzinie zabezpieczeń. Pierwszym z nich jest brak regularnej aktualizacji systemów operacyjnych - 82% urządzeń z systemem operacyjnym Android używa dwuletniej lub starszej wersji systemu. Dodatkowo urządzenia te łączą się dzien... więcej»

2018-7

zeszyt-5584-przeglad-telekomunikacyjny-2018-7.html

 
W numerze m.in.:
Sterowanie optycznymi sieciami transportowymi za pomocą programowalnego interfejsu opartego na języku modelowania YANG DOI:10.15199/59.2018.7.2
(Arkadiusz Potrykus, Rafał Szwedowski, Paweł Kaczmarek, Sylwester Kaczmarek)

Over a decade many standardization initiatives as well as research activities were focused on bringing SDN concepts into transport world. Majority of them is focused on the interface between orchestrator or client SDN controller and transport network controller as the component, which is most fragile from the interoperability perspective. This paper aims on presenting the results of an industrial research on two practical realizations. Main objective is to provide a deeper technical insight to both. Regardless of many different directions within standardization bodies since a few past years we can observe a strong paradigm shift towards model-based interfaces. This led to dominant role of interfaces derived from YANG [1] modeling language, exposed over RESTCONF [2] or NETCONF [3] protocols. They naturally move center of gravity of interface definition from complex and very often binary protocol structures towards much simpler textbased models separated from common transport mechanism. Moreover, models can be classified into two major groups device scope also known as disaggregated or direct models and networks scope also referred as abstracted or aggregated [4][5]. This paper focuses on the second group and is organized into four major parts. Chapter two provides theoretical introduction into the world of two selected IETF TEAS TE models. Chapter three gives a deeper dive into the used controller - ONOS. From the theoretical point of view experiment was agnostic to software platform, however interpretation of the results always requires existing reference implementation. In the following chapter four and five the authors concentrate on presenting practical results of the conducted proof of concept. TEAS TE MODELS Traffic Engineering Architecture and Signaling (TEAS) Working Group is well known for defining Multiprotocol Label Switching (MPLS) and Generalized-MPLS (GMPLS) traffic engineering architecture along with standardiz... więcej»

Uziemianie obiektów telekomunikacyjnych DOI:10.15199/59.2018.7.4
(Karol ANISEROWICZ)

Spełnienie zasad kompatybilności elektromagnetycznej w obiektach telekomunikacyjnych jest istotne z powodu funkcji przez nie pełnionych. Jednym z ważnych aspektów kompatybilności elektromagnetycznej jest ochrona odgromowa, szczególnie wówczas, gdy obiekty zawierają konstrukcje o dużej wysokości (maszty antenowe, wieże) lub są podłączone do rozległych sieci przewodzących. Ochrona przed oddziaływaniem piorunowych impulsów elektromagnetycznych dotyczy zarówno aparatury elektronicznej, jak i bezpieczeństwa ludzi. Jednym z podstawowych środków ochrony odgromowej jest uziemianie. Mimo dość dużej liczby publikacji na ten temat, ogólny stan wiedzy o uziomach jest mały, a przeciętny elektronik często wręcz lekceważy to zagadnienie. Może to być związane m.in. z brakiem tych zagadnień w programach studiów dla inżynierów elektroników. Ponadto poziom artykułów publikowanych w pismach branżowych, prac prezentowanych na konferencjach, a szczególnie w Internecie, jest nierówny. Nierzadkie są publikacje, których autorzy opierają się bardziej na swoich wyobrażeniach niż na lekturze norm lub książek [1-12]. Niestety, jakość tłumaczenia norm pozostawia wiele do życzenia. Panuje przy tym spore zamieszanie pojęciowe, związane z kilkoma funkcjami pełnionymi przez uziomy oraz z myleniem uziemień z połączeniami wyrównawczymi (ekwipotencjalizacją). Stąd wynikła potrzeba napisania niniejszego artykułu. Uziemienia pełnią następujące główne funkcje: - ochronną, - odgromową, - roboczą. Funkcja ochronna uziemienia - jako jednego ze środków ochrony przeciwporażeniowej - polega na zapewnieniu, że różnica potencjałów pomiędzy dowolnym przewodzącym przedmiotem a powierzchnią ziemi nie przekracza wartości uznawanej za bezpieczną przy dotknięciu (napięcie dotykowe). Dotyczy ona również zapewnienia bezpiecznej wartości różnicy potencjałów między stopami (napięcie krokowe). Analogiczną funkcję pełnią połączenia wyrównawcze, jednak powierzchnią odniesienia dla ... więcej»

Neutralność sieci - szanse i bariery dla urzeczywistnienia idei wolnego Internetu DOI:10.15199/59.2018.7.6

Termin neutralność sieci wiąże się ściśle z Internetem i funkcjonuje od początku jego istnienia. W literaturze można znaleźć wiele definicji opisujących to pojęcie z różnych punktów widzenia. Istota neutralności sieci nie została bowiem dotychczas jednoznacznie zdefiniowana. Ministerstwo Cyfryzacji wskazuje, że przez neutralność sieci, utożsamianą z neutralnością Internetu, należy rozumieć jednakowe traktowanie ruchu internetowego, niezależnie od źródła jego pochodzenia, wykorzystywanej aplikacji, miejsca docelowego, stosowanego protokołu lub treści komunikacji [1]. W Raporcie [2] Organu Europejskich Regulatorów Łączności Elektronicznej BEREC (Body of European Regulators of Electronic Communications)) neutralność sieci jest definiowana jako zasada jednakowego traktowania wszystkich komunikatów przesyłanych w sieci Internet niezależnie od treści, wykorzystanej aplikacji lub usługi, urządzenia oraz adresu nadawcy i odbiorcy. Inaczej mówiąc, neutralność sieci (network neutrality) to zasada, zgodnie z którą dostawcy usług internetowych ISP (Internet Service Provider) i instytucje rządowe nie nakładają żadnych ograniczeń na dostęp do sieci dla użytkowników korzystających z Internetu. Zgodnie z tą definicją neutralność sieci oznacza, że wszyscy użytkownicy Internetu mogą uzyskać dostęp do jej zasobów na równych prawach. Przez użytkowników Internetu rozumie się użytkowników końcowych, będących konsumentami usług oraz dostawców treści i aplikacji CAP (Content and Application Provider), którzy wykorzystują tę sieć do prowadzenia działalności biznesowej, niepolegającej na świadczeniu usług telekomunikacyjnych. Chodzi o podmioty prowadzące działalność gospodarczą w Internecie, polegającą na udostępnianiu treści, usług i aplikacji za pośrednictwem swoich stron internetowych. Dzięki zasadzie neutralności każdy podmiot, bez względu na rolę, wielkość i obszar działalności, ma w Internecie równe prawa w zakresie świadczenia i korzystania z usł... więcej»

Media lokalne: społeczne, narodowe, obywatelskie? DOI:10.15199/59.2018.7.5
(Witold GRABOŚ)

Oligopol Na polskim rynku telewizyjnym od lat panuje oligopol. Telewizja publiczna, grupa Polsat i grupa TVN zdominowały rynek, co stwierdza KRRiT niezależnie od jej kadencji i składu osobowego. Polskie prawo medialne nie zabrania łączenia działalności nadawczej z brokerską. Największe komercyjne grupy telewizyjne mają własne domy mediowe. Dysponują także sieciami nadawczymi. To stwarza sytuację, w której mali nadawcy albo godzą się na uzależniającą współpracę, albo zmuszeni są do sprzedania programu. W polskim prawie medialnym nie ma przepisów kontrolujących kumulację kapitału medialnego, a przepisy dotyczące pozycji znaczącej nadawcy są nieefektywne. Jednym ze skutków afery Rywina była liberalizacja obrotu rynkowego koncesjonowanymi programami. Koncesja - dobro niezbywalne może zmienić właściciela za zgodą KRRiT. Krajowa Rada nie ma żadnych kompetencji kontrolno-regulacyjnych, jeśli polską stację kupuje podmiot unijny. Nawet wtedy, gdy jego właścicielem jest kapitał spoza Unii. Pomimo politycznych haseł repolonizacji mediów, obcy kapitał medialny raczej umacnia swą pozycję. Za sumę 14,6 milliarda dolarów USA Discovery Communications przejął od Scripps Networks Interactive grupę TVN. Podmiot ten kupił też od Agory większość udziałów kanału tematycznego na multipleksie ósmym. Tendencje kumulacyjne potwierdza także sprzedaż przez grupę ZPR pakietu telewizyjnych kanałów cyfrowych Polsatowi. Na rynku radiowym dominują cztery grupy: RMF, Eurozet, Time i Agora. Proces tzw. sieciowania, a de facto przejmowania małych stacji i uniformizacji programowej już się dokonał. Do rzadkości należą nadawcy, którzy ocalili własną niezależność właścicielską i programową. Zubożony obraz Mało spolaryzowany rynek medialny kreuje uproszczony i zubożony obraz rzeczywistości, wpływa na świadomość społeczną i jakość demokracji. Media korporacyjne z natury wspierają zachowawczą polityk... więcej»

Nowe warunki świadczenia usług telekomunikacyjnych o podwyższonej opłacie (Premium Rate) DOI:10.15199/59.2018.7.1
(Stanisław PIĄTEK)

Charakterystyka usług o podwyższonej opłacie Przedsiębiorcy telekomunikacyjni - poza usługami o charakterze transmisyjnym - dostarczają również takie usługi, których podstawowym składnikiem jest dodatkowe świadczenie znacznie podnoszące ich cenę. Dostawcą dodatkowego świadczenia (np. informacyjnego, rozrywkowego, rozliczeniowego) jest z reguły odrębny podmiot współpracujący z przedsiębiorcą telekomunikacyjnym. Usługi te są określane w praktyce i w literaturze zagranicznej jako Premium Rate Services (PRS), Special Rate Services (SRS) [1], natomiast w polskim prawie jako usługi o podwyższonej opłacie lub usługi telekomunikacyjne z dodatkowym świadczeniem. Wzbudzają one zainteresowanie regulatora i ustawodawcy głównie z powodu powtarzających się naruszeń praw i interesów abonentów, korzystających z tych usług. Mimo tego, że rzeczywista skala naruszeń jest niewielka w porównaniu z wartością całego rynku wymienionych usług, to medialny oddźwięk spraw tego rodzaju wywołuje co pewien czas gwałtowną reakcję władz państwowych. Polega ona na modyfikowaniu warunków prawnych świadczenia usług. Usługi o podwyższonej opłacie są fragmentarycznie regulowane przepisami prawa Unii Europejskiej [2]. Wymagania dotyczące tych usług są głównie inicjatywą krajowego ustawodawcy. W dniu 12 grudnia 2018 r. wejdzie w życie kolejna nowelizacja ustawy Prawo telekomunikacyjne [3]. Wprowadza ona bardzo rygorystyczne warunki świadczenia omawianych usług. Dotychczasowe warunki zostały określone ustawą nowelizującą Prawo telekomunikacyjne z 16 września 2011 r. [4]. Część z nich weszła w życie w grudniu 2011 r., natomiast powinności TELE-RADIO-ELEKTRONIKA-INFORMATYKA ROK ZAŁOŻENIA 1928  ROCZNIK XCI  ISSN 1230-3496 7/2018 * Wydział Zarządzania Uniwersytetu Warszawskiego, e-mail: spiatek@wz.uw.edu.pl Stanisław PIĄTEK* Nowe warunki świadczenia usług telekomunikacyjnych o podwyższonej opłacie (Premium Rate) New conditions concerning the provi... więcej»

2018-6

zeszyt-5532-przeglad-telekomunikacyjny-2018-6.html

 
W numerze m.in.:
Przegląd nowych metod kompresji obrazu wykorzystujących uczenie maszynowe ze szczególnym uwzględnieniem uczenia głębokiego DOI:10.15199/59.2018.6.60
(Przemysław Buczkowski, Władysław Skarbek)

1. WSTĘP Ilość generowanych danych rośnie w zawrotnym tempie. Wynika to z rosnącej liczby systemów informatycznych, aktywności użytkowników oraz zwiększania dostępności Internetu. Raczkujący dopiero Internet Rzeczy może w dużym stopniu przyczynić się do zwiększenia ilości generowania nowych danych. Oprócz kosztu związanego z przechowywaniem tych danych, dodatkowy koszt pojawia się gdy dane trzeba przesłać. Według CISCO ruch IP w roku 2016 wynosił 96 tys. PB miesięcznie [4]. Raport ten wykazuje, że oprócz ilości przesyłanych danych wzrasta również samo tempo tego wzrostu. Dużą część omawianego transferu stanowią obrazy (grafika rastrowa ale też materiał wideo), które są wszechobecne na stronach internetowych czy usługach udostępniających przestrzeń w chmurze, a które w związku z rozwojem matryc wyświetlaczy (pośrednio) jak i rozwojem sensorów w aparatach i kamerach cyfrowych (bezpośrednio) zajmują coraz więcej przestrzeni dyskowej. Aby ograniczyć koszty związane z przechowywaniem i przesyłaniem danych oraz umożliwić wydajne funkcjonowanie systemów informatycznych stosowana jest kompresja. 2. KOMPRESJA Kompresja jest sposobem zapisu informacji tak, aby zmniejszyć wielkość zbioru danych. Zazwyczaj osiągane jest to poprzez zmniejszenie redundancji w danych. W skutek takiej operacji otrzymywany jest ten sam (lub zbliżony) zestaw informacji jednak zapisany na mniejszej liczbie bitów. Operacja odwrotna nosi nazwę dekompresji. Zestaw informacji po dekompresji może być identyczny z początkowym, lub przybliżony. Ze względu na ten fakt metody kompresji dzielą się na metody stratne i bezstratne. Metody bezstratne zmieniają tylko zapis (kodowanie) informacji jednak nie zmieniają jej treści. Metody stratne uzyskują znacząco wyższy stopień kompresji ponieważ są w stanie wybiórczo "zapomnieć" te części informacji, których brak nie dyskwalifikuje ich dalszego użytkowania. Ostatnim krokiem stratnych algorytmów kompresji jest zazwyczaj... więcej»

WPŁYW ROZRZUTU WYMIARÓW GEOMETRYCZNYCH NA PARAMETRY SZYKU ANTENOWEGO WYKONANEGO W TECHNOLOGII LTCC DOI:10.15199/59.2018.6.35
(Jakub Gawlik, Yevhen Yashchyshyn)

1. WSTĘP Przedmiotem badań opisanych w niniejszym artykule jest mikropaskowy szyk antenowy pracujący na częstotliwości 24 GHz, przeznaczony do wykonania w technologii LTCC (ceramiki współwypalanej niskotemperaturowo). Do tej pory najczęściej tego typu anteny wytwarzane były w technice obwodów drukowanych PCB. Zarówno jedna jak i druga metoda dostarcza możliwość integrowania w jednym module anteny wraz z układem radiowym, lecz główną zaletą LTCC jest wielowarstwowość, czyli możliwość tworzenia przestrzennych trójwymiarowych modułów. Ponadto podłoże LTCC jest stabilne w szerokim zakresie częstotliwości oraz charakteryzuje się niską stratnością [1], co jest szczególnie ważne w zakresie fal milimetrowych, w tym na częstotliwości 24 GHz. Zakres częstotliwości wokół 24 GHz jest powszechnie wykorzystywany w radarowych systemach samochodowych bliskiego zasięgu [4]. Został on także przeznaczony na nielicencjonowane pasmo ISM, głównie ze względu na lokalne maksimum tłumienia fali elektromagnetycznej w atmosferze. Mimo wszystko komunikacja na tej częstotliwości jest możliwa zarówno w środowisku miejskim, jak i wewnątrz budynku. Projektanci systemu 5G rozważają wykorzystania pasma wokół 24 GHz [5], [6] i jest wielce prawdopodobne, że w przyszłości zwiększy się zapotrzebowanie na niewielkie, tanie urządzenia pracujące w tym zakresie. Do wytworzenia elementów promieniujących na podłożu LTCC wykorzystuje się klasyczną metodę sitodruku. Minimalna szerokość ścieżek ograniczona jest zwykle do około 100 μm [3] i w trakcie procesu technologicznego może być wykonana z pewną niedokładnością. Poprzez dodatkową obróbkę otrzymanej struktury za pomocą lasera możliwe jest osiągnięcie bardziej precyzyjnych wymiarów ścieżek. Kolejnym aspektem komplikującym uzyskanie pożądanej struktury jest występujący w czasie wypalania skurcz foli LTCC [2],... więcej»

ANALIZA WPŁYWU BŁĘDÓW MAP REFERENCYJNYCH NA DOKŁADNOŚĆ LOKALIZOWANIA TERMINALA Z WYKORZYSTANIEM RSSI I ALGORYTMU FILTRACJI CZĄSTECZKOWEJ DOI:10.15199/59.2018.6.22
(Robert Kawecki, Piotr Korbel Sławomir, Hausman)

1. WSTĘP W ostatnich latach można zaobserwować duże zainteresowanie rozwojem różnorodnych systemów lokalizacyjnych wykorzystujących punkty dostępowe lokalnych sieci bezprzewodowych (WLAN), bądź nadajniki małej mocy, tzw. znaczniki radiowe (ang. beacon), zgodne ze standardem BLE (ang. Bluetooth Low Energy) [2][3][6][8]. Rozwiązanie problemu lokalizowania terminala mobilnego we wnętrzach budynków, w których zwykle nie jest dostępny dostatecznej jakości sygnał pochodzący z nadajników systemów satelitarnych, pozwoliło na opracowanie różnorodnych aplikacji wymagających do poprawnego działania informacji o położeniu terminala użytkownika (LBS, z ang. Location Based Services). Można do nich zaliczyć np. całą gamę systemów umożliwiających dostarczanie kontekstowych treści reklamowych klientom centrów handlowo-usługowych. Większość współczesnych wewnątrzbudynkowych systemów lokalizacyjnych implementuje metody wykorzystujące pomiary poziomu mocy odebranej (RSS, ang. Received Signal Strength). Wskaźnik mocy odebranej RSSI (ang. Received Signal Strength Indicator) jest dostępny w większości dostępnych na rynku układów radiowych. Rozwiązania wykorzystujące pomiar czasu propagacji sygnału, np. systemy ultraszerokopasmowe (UWB), oferują znacznie lepszą dokładność niż te wykorzystujące RSS, ale są one znacznie droższe i wymagają dedykowanej infrastruktury [2][3][8], niekompatybilnej z interfejsami współczesnych terminali mobilnych (np. smartfonów). Do najczęściej stosowanych w wewnątrzbudynkowych systemach lokalizacyjnych wykorzystujących znaczniki BLE oraz odczyty RSSI, należą metody korelacyjne. Podstawowa zasada działania takich systemów zakłada ocenę podobieństwa parametrów sygnałów rejestrowanych przez terminal użytkownika z wzorcowymi wartościami przechowywanymi w referencyjnej bazie danych. Znając rozkład przestrzenny parametrów sygnałów nadawanych przez poszczególne nadajniki systemu lokalizacyjnego w obszarze, po którym porus... więcej»

Komunikacja w nanoskali DOI:10.15199/59.2018.6.3
(Paweł Kułakowski)

Obecnie obserwuje się niezwykle intensywny rozwój w dziedzinie nanotechnologii. Jest to z jednej strony stymulowane rosnącymi gwałtownie możliwościami technologicznymi budowy nanomaszyn, również z wykorzystaniem grafenu. Z drugiej strony cały czas wzrasta liczba zastosowań nanotechnologii, począwszy od precyzyjnej produkcji przemysłowej, ochrony środowiska, budowy zminiaturyzowanych laboratoriów (labs-on-a-chip), aż do olbrzymiej liczby możliwości z dziedziny medycyny: nanochirurgii, stymulacji regeneracji tkanek czy rozprowadzania w ciele ludzkim leków i innych substancji aktywnych. Działania pojedynczych nanomaszyn, między innymi z powodu ich rozmiaru i możliwości energetycznych, są jednak bardzo ograniczone. Dalszy rozwój ich funkcjonalności wymaga kooperacji całych sieci nanomaszyn. Oznacza to konieczność opracowania mechanizmów komunikacji między nanomaszynami. Komunikacja w nanoskali konieczna jest również dla sterowania nanomaszynami i odbierania od nich informacji. Komunikacja w nanoskali, czyli nanokomunikacja, stanowi temat badań naukowców od około dekady. Dziedzina ta, regularnie wymieniana m.in. przez IEEE Communications Society jako jeden z najważniejszych tematów naukowych (hot topics, technology trends), rozwija się jednak dość powoli, ze względu na konieczność współpracy badaczy z obszarów telekomunikacji/ informatyki oraz biotechnologii/medycyny. Główna inicjatywa rozwoju nanokomunikacji pochodzi z międzynarodowego środowiska telekomunikacyjnego, jednak coraz częściej eksperymenty przeprowadzane są z wykorzystaniem wsparcia, sprzętu i doświadczenia grup biologów, biofizyków czy biotechnologów. Zasadniczo wszystkie prowadzone obecnie badania z zakresu nanokomunikacji należą wciąż do badań podstawowych. Prace skupiają się na określeniu właściwości medium, przepustowości kanału komunikacyjnego i bitowej stopy błędów, zdefiniowaniu odpowiednich modulacji, protokołów MAC i technik rutingu. Proponowane są archit... więcej»

ANALIZA WYNIKÓW POMIARÓW ZASIĘGU I JAKOŚCI TRANSMISJI DANYCH W WARSTWIE FIZYCZNEJ SYSTEMU VDES DOI:10.15199/59.2018.6.38
(Krzysztof Bronk, Patryk Koncicki, Adam Lipka, Rafał Niski)

1. WSTĘP W ramach projektu EfficienSea 2.01 [5], którego głównym celem jest rozwój morskiego systemu łączności radiowej, przeprowadzona została dwutygodniowa kampania pomiarowa na wodach Morza Bałtyckiego. Wynikiem jej było zebranie około 6 TB danych, które zostały następnie przetworzone w symulatorze odbiornika VDES (VHF Data Exchange System) stworzonym przez Instytut Łączności w Gdańsku [1]. Głównym celem tych prac było uzyskanie krzywych bitowej stopy błędu, na podstawie czego określono jakość transmisji danych w warstwie fizycznej systemu VDES oraz jego zasięgi i porównano je z wynikami teoretycznymi. Działania te przeprowadzono na potrzeby procesu standaryzacji VDES-a, który był jednym z głównych zadań Instytutu Łączności w projekcie. 2. METODOLOGIA POMIARÓW 2.1. Scenariusz pomiarowy Pomiary zostały przeprowadzone z wykorzystaniem jednego nadajnika VDES znajdującego się w porcie Gedser Havn oraz dwóch odbiorników, z których jeden zainstalowany był na pokładzie Scandlines Ferry M/F Berlin, zaś drugi na jego siostrzanym statku M/F Copenhagen. Scenariusz pomiarowy przedstawiono na rys. 1. Aby test uczynić możliwie najbardziej realistycz- 1 Projekt EfficienSea 2.0 - Getting Connected jest współfinansowany z programu Horyzont 2020 w ramach konkursu Mobility for Growth. nym i uzyskać rezultaty o wysokim stopniu wiarygodności, na pokładzie statków wykonano pełną instalację torów radiowych VHF. W celu analizy wpływu wysokości zawieszenia anten na propagację sygnału, anteny umieszczono na statkach na dwóch różnych wysokościach. Trasa żeglugi w jedną stronę wynosiła około 48 km. Warto wspomnieć, że gdy statki znajdowały się w największej możliwej odległości od nadajnika, zlokalizowane one były częściowo na terenie śródlądowym, co dodatkowo zwiększyło wartość pomiarów, ponieważ poziom zakłóceń był wyższy, a propagacja w tych warunkach trudniejsza. Rys. 1. Ogólna koncepcja kampanii pomiarowej 2.2. Sekwencja danych wykorzys... więcej»

2018-5

zeszyt-5503-przeglad-telekomunikacyjny-2018-5.html

 
W numerze m.in.:
Głębokie sieci neuronowe i ich zastosowania w eksploracji danych DOI:10.15199/59.2018.5.2
(Stanisław OSOWSKI)

W ostatnich latach ogromny postęp w eksploracji danych dokonał się za pośrednictwem tak zwanego głębokiego uczenia. Głębokie uczenie dotyczy wielowarstwowych sieci neuronowych, które pełnią jednocześnie funkcję generatora cech diagnostycznych dla analizowanego procesu oraz finalną funkcję klasyfikatora bądź układu regresyjnego. Uzyskuje się w ten sposób doskonałe narzędzie zastępujące człowieka przede wszystkim w trudnej dziedzinie opisu procesu za pomocą specjalizowanych deskryptorów, których stworzenie wymaga dużych zdolności eksperckich. Okazuje się przy tym, że takie podejście do bezinterwencyjnej metody generacji cech jest o wiele skuteczniejsze od stosowanych tradycyjnie metod generacji deskryptorów. Umożliwia przy tym poprawę dokładności działania systemu. Z tego powodu technologia sieci głębokich stała się ostatnio bardzo szybko jednym z najbardziej popularnych obszarów w dziedzinie nauk komputerowych. Za protoplastę tych sieci można uznać zdefiniowany na początku lat dziewięćdziesiątych wielowarstwowy neocognitron Fukushimy [1]. Prawdziwy rozwój tych sieci zawdzięcza się jednak profesorowi LeCun [2], który zdefiniował podstawową strukturę i algorytm uczący specjalizowanej sieci wielowarstwowej, zwanej Convolutional Neural Network (CNN). Obecnie CNN stanowi podstawową strukturę stosowaną na szeroką skalę w przetwarzaniu obrazów. Tymczasem powstało wiele odmian sieci, będących modyfikacją struktury podstawowej CNN (np. UNN), jak również sieci różniących się zasadniczo od CNN. Przykładem mogą być autoenkoder (AE), jako wielowarstwowe, nieliniowe uogólnienie liniowej sieci PCA [3], sieci rekurencyjne typu LSTM (Long Short- -Term Memory) [4], stanowiące skuteczne rozwiązanie problemu propagacji wstecznej w czasie lub ograniczona (wielowarstwowa) maszyna Boltzmanna RBM (Restricted Boltzmann Machine) używana w sieciach głębokiej wiarygodności DBN (Deep Belief Network) [5]. Cechą wspólną tych rozwiązań, zwłaszcza w przypadk... więcej»

Nowe wyzwania dla zwiększenia efektywności budowy szybkich sieci łączności elektronicznej DOI:10.15199/59.2018.5.4
(Wojciech Michalski)

W Narodowym Planie Szerokopasmowym (NPS), przyjętym przez Rząd w styczniu 2014 roku, została określona strategia rozwoju dostępu do szerokopasmowego Internetu. Zgodnie z nią do końca 2020 r. każde gospodarstwo domowe w Polsce powinno mieć zapewnioną możliwość korzystania z dostępu do Internetu o przepływności co najmniej 30 Mbit/s, a przynajmniej połowa polskich gospodarstw domowych powinna korzystać z łączy o przepływności powyżej 100 Mbit/s. Osiągnięcie tych celów w ciągu najbliższych pięciu lat to absolutne minimum, bo w związku z cyfrową transformacją w dłuższej perspektywie to zdecydowanie za mało. Wyniki przeprowadzonych przez Komisję Europejską (KE) konsultacji społecznych, dotyczących potrzeb w zakresie prędkości i jakości połączeń internetowych po 2020 r. oraz środków służących do zaspakajania tych potrzeb po 2025 r., wskazują że internauci oczekują wyraźnej poprawy jakości usług łączności stacjonarnej do tego terminu. Przyszłościowe potrzeby użytkowników znalazły odzwierciedlenie w komunikacie: Łączność dla konkurencyjnego jednolitego rynku cyfrowego: w kierunku europejskiego społeczeństwa gigabitowego. KE proponuje w nim nowe cele strategiczne dotyczące rozwoju szerokopasmowego dostępu do Internetu do 2025 r. Cel pierwszy to zapewnienie gigabitowego dostępu do Internetu dla wszystkich miejsc stanowiących główną siłę napędową rozwoju społeczno- -gospodarczego, takich jak szkoły, węzły transportowe i główne miejsca świadczenia usług publicznych, a także dla przedsiębiorstw prowadzących intensywną działalność w Internecie. Cel drugi to zapewnienie niezakłóconego dostępu do sieci 5G na wszystkich obszarach miejskich i na wszystkich głównych szlakach komunikacyjnych. Cel trzeci to zapewnienie wszystkim gospodarstwom domowym w Europie, zarówno na obszarach miejskich, jak i wiejskich, dostępu do Internetu o prędkości dla łącza "w dół" co najmniej 100 Mbit/s, z możliwością zwiększenia prędkości do wartości mierzonej w gig... więcej»

Głowica o napędzie pneumatycznym do zaciągania dodatkowego kabla światłowodowego - wdrożenie DOI:10.15199/59.2018.5.5
(Dariusz CIERPIŃSKI)

Pojęcie Polska Cyfrowa staje się rzeczywistością dzięki dużym inwestycjom w zakresie szerokopasmowej infrastruktury dostępowej wspieranym przez rządowy program POPC - Program Operacyjny Polska Cyfrowa. Ma on ostatecznie wymazać z mapy Polski obszary pozbawione dostępu do usług szerokopasmowych. Usługi te stają się motorem napędowym gospodarki, rozwijając ją o 1,3 procenta przypadającego na każde przyłączone kolejne 10 procent gospodarstw domowych [1]. Dostęp do usług szerokopasmowych to szansa na rozwój telepracy dla ludzi z obszarów wiejskich lub ludzi niepełnosprawnych, co pozytywnie wpływa na wyrównywanie szans społecznych. Poza rozwojem sieci dostępowych FTTH (Fiber to the Home - światłowód do domu) do bram cywilizacji zbliża się technologia 5G, która zapewni użytkownikom dostęp do usług szerokopasmowych w sposób mobilny z przepływnościami, przekraczającymi obecnie nasze możliwości wykorzystania. Zwiększenie przepływności łączy dostępowych wraz z ich wzrostem liczbowym pogłębi presję na stały dynamiczny wzrost wymagań transmisyjnych w obrębie sieci szkieletowej, która będzie musiała zapewnić klientom szerokopasmowym dostęp do źródeł danych w centrach rozsianych po całej Polsce i na całym świecie. Rozwiązanie to może pochodzić z dwóch kierunków: od inwestycji sprzętowych - instalacji urządzeń o najwyższych przepływnościach 100 lub 400 Gbit/s oraz ... więcej»

Sztuczna inteligencja - wyzwaniem XXI wieku DOI:10.15199/59.2018.5.1
(Andrzej M. WILK)

Sztuczna Inteligencja - cudowne dziecko czy golem XXI wieku ? Sztuczna inteligencja, znana częściej pod angielskim akronimem AI (Artificial Intelligence)1), stanowi przedmiot badań i prac prowadzonych od ponad pół wieku w stale rosnącej liczbie laboratoriów, centrów i instytutów, zarówno uczelnianych, jak i przemysłowych. Stopniowo coraz więcej rozwiązań osiąga dojrzałość techniczną i jest wdrażanych w praktyce. Jako decydujący moment dla uświadomienia problemu badawczego AI uznaje się podanie w 1950 r. przez Alana Turinga propozycji testu. Określa się w nim wymagania, umożliwiające uznanie, że maszyna "myśli", a właściwie, że w procesie komunikacji może skutecznie udawać człowieka. Samo pojęcie sztucznej inteligencji zaproponował dopiero w 1956 r. John McCarthy podczas pierwszej specjalistycznej konferencji w Dartmouth, która zainicjowała szeroko zakrojone prace poświęcone tej nowej tematyce. W pierwszej fazie fascynacji AI, już w 1959 r., w Massachusetts Institute of Technology (USA) powstało AI Laboratory, które w wyniku przekształceń połączyło się w 2003 r. z utworzonym w 1963 r. Laboratory for Computer Science, tworząc Computer - Science and Artificial Intelligence Laboratory. Z kolei na Uniwersytecie Stanford odpowiednie laboratorium - The Stanford Artificial Intelligence Laboratory (SAIL) - powstało w 1962 r. Stanowi ono obecnie znaczące centrum doskonałości w dziedzinie badań, nauczania, teorii i praktyki w zakresie sztucznej inteligencji. Oczywiście, intensywność badań prowadzonych nad AI i ich szczegółowe ukierunkowanie były zależne od możliwości dostępnej techniki komputerowej i stanu rozwoju innych dyscyplin naukowych, istotnych dla rozumienia procesów postrzegania zmysłowego, myślenia i podejmowania decyzji. W poszczególnych latach, od końca lat pięćdziesiątych XX wieku do chwili obecnej, były okresy intensywnego finansowania i dynamicznego rozwoju oraz okresy "posuchy". Lata prowadzonych szerokim frontem prac ... więcej»

Synteza generatorów indeksów metodami dekompozycji liniowej i funkcjonalnej DOI:10.15199/59.2018.5.3
(Tadeusz ŁUBA, Tomasz MAZURKIEWICZ)

Metody projektowania funkcji generowania indeksów, ze względu na ważne zastosowania (dystrybucja adresów IP, skanowanie wirusów, wykrywanie niepożądanych danych), są ostatnio przedmiotem intensywnych badań naukowych. Celem tych badań jest metodyka syntezy logicznej układów cyfrowych, umożliwiających wyodrębnianie właściwych danych z ogromnej masy danych niepotrzebnych. Dane te są wprowadzane do układu w postaci binarnych wektorów reprezentujących silnie nieokreślone funkcje boolowskie o dużej liczbie argumentów. Synteza takich funkcji jest wyzwaniem dla twórców algorytmów redukcji i kompresji argumentów, któremu nie potrafią sprostać nawet najlepsze zespoły na świecie. Na przykład cytowana w [8] funkcja boolowska (10 wektorów, 40 argumentów), obliczona przez Sasao [18], jest redukowana do 5 zmiennych. Program Lightning, opracowany przez dyplomanta Ośrodka Kształcenia na Odległość Politechniki Warszawskiej, oblicza dla tej funkcji 2261 reduktów 4-argumentowych. Warto podkreślić, że wspomniany program może wygenerować tablicę prawdy tej funkcji dla każdego reduktu. Badania omawiane w artykule dotyczą zarówno standardowych metod syntezy logicznej, jak też metod heurystycznych, wykorzystujących zaawansowane miary złożoności obliczeniowej. W pierwszym przypadku rozwijane są przede wszystkim modele zależności funkcjonalnych funkcji boolowskich, takie jak redukcja argumentów oraz dekompozycja funkcjonalna, a w drugim poszukiwane są metody z zakresu teorii ciał skończonych, a w szczególności metody dekonwolucji [1]. W związku z różnorodnością tych metod, przy jednoczesnym coraz powszechniejszym i ważniejszym ich zastosowaniu, głównym celem artykułu jest przegląd tych metod, umożliwiający czytelnikowi odpowiedni wybór. Z tych powodów omawiane są zarówno metody i algorytmy dekompozycji liniowej, jak też dekompozycji funkcjonalnej, stwarzającej szanse opracowania uniwersalnych metod syntezy generatorów indeksów. Pełne wykorzystanie t... więcej»

2018-4

zeszyt-5485-przeglad-telekomunikacyjny-2018-4.html

 
W numerze m.in.:
Metryki oceny jakości klasyfikacji DOI:10.15199/59.2018.4.3
(Cezary Jankowski )

Od powstania pierwszej strony WWW [18] w grudniu 1990 roku nie upłynęło jeszcze nawet 30 lat, a Internet od tamtego czasu zmienił się diametralnie. Przestał być domeną wybranych naukowców i wojskowych. Stał się powszechny i wszechobecny. Obecnie można obserwować rozwój dostępu mobilnego, związanego z rosnącą wciąż popularnością smartfonów. Ich sprzętowe możliwości obliczeniowe są porównywalne z komputerami sprzed kilku lat. Wiele rodzjów aktywności przenosi się do Internetu. Ogłoszenia drobne opuszczają zajmowane przez lata łamy gazet. Serwisy społecznościowe mają coraz większe znaczenie w relacjach międzyludzkich. Sklepy internetowe oferują atrakcyjne ceny, oszczędzając na braku stacjonarnych punktów sprzedaży. Również reklamodawcy przechodzą z tradycyjnych mediów do sieci. Zachęca ich między innymi wizja profilowania użytkowników, a zatem przedstawiania im spersonalizowanych treści. Rezultatem tych zmian jest ciągle rosnąca ilość danych, gromadzonych przez organizacje oraz firmy. Gromadzenie tych danych nie jest jednak celem samym w sobie. Znaczenie ma dopiero informacja. Istotna jest możliwość uogólnienia, znalezienia pewnych wzorców oraz reguł. Istnieje potrzeba odkrywania wiedzy z baz danych (Knowledge Discovery in Databases) [16]. Pewne zagadnienia implikują istnienie wyróżnionego atrybutu - decyzji. Przykładem może być zagadnienie budowy filtru antyspamowego. Klasą decyzyjną będzie w tym przypadku etykieta spam lub poprawna wiadomość. Inne zagadnienie może dotyczyć prognozowania odsetka rozwiązanych umów z operatorem telekomunikacyjnym [7, 14]. Problemy, mające wyróżnioną zmienną, są określane mianem nauczania nadzorowanego (supervised learning). W zależności od zbioru wartości atrybutu decyzyjnego można wyróżnić klasyfikację - dyskretny, skończony zbiór wartości (jak w przypadku wspomnianego filtru antyspamowego) oraz regresję - ciągły zbiór wartości (jak w przypadku prognozy odsetka rozwiązanych umów). Istnieje tak... więcej»

Porównanie algorytmów mnożenia funkcji boolowskich DOI:10.15199/59.2018.4.4
(Marcin Dawiec)

Wstęp Niech Vn będzie n-wymiarową przestrzenią wektorową nad ciałem dwuelementowym F2. Każdą funkcję boolowską n-zmiennych f: Vn  {0,1} można przedstawić w postaci: f(x) = S faxa = S f a1 , ..., an x1 a1 ... xn an (1) aÎVn a = (a1, ..., an)ÎVn gdzie fa = fa1 , ..., an Î{0,1}, zaś symbol sumy dotyczy dodawania modulo 2. Przedstawioną powyżej postać nazywa się algebraiczną postacią normalną funkcji f - ANF (Algebraic Normal Form). Z punktu widzenia struktury algebraicznej funkcje boolowskie tworzą pierścień z operacjami dodawania i mnożenia, które cechuje nierówna złożoność obliczeniowa. Dodawanie funkcji boolowskich jest operacją prostą, natomiast mnożenie w ogólnym przypadku operacją bardzo złożoną, która decyduje o efektywności algorytmów wykorzystujących działania arytmetyczne na funkcjach boolowskich. Funkcje boolowskie znajdują szerokie zastosowanie w inżynierii, m.in. obecnie stosowane cyfrowe układy elektroniczne realizują swoje funkcje na podstawie funkcji boolowskich. Arytmetyka funkcji boolowskich, a dokładnie jej złożoność obliczeniowa, ma istotne znaczenie w procesie projektowania układów cyfrowych, matematyce oraz w szczególności w kryptologii. Tam jest nadzwyczaj ważna, gdyż im szybsze metody mnożenia, tym większe możliwości badania własności funkcji kryptograficznych (np. algorytmów blokowych i strumieniowych). Jedną z gałęzi kryptologii, w której szczególne znaczenie ma złożoność arytmetyki funkcji boolowskich, jest kryptoanaliza algebraiczna. Przykładem, gdzie szybkie mnożenie funkcji boolowskich odgrywa ważną rolę, może być wyznaczanie baz Gröbnera z wykorzystaniem algorytmu Buchbergera [1, 2] oraz algorytmów F4 i F5 [3, 4], gdzie występuje mnożenie wielomianów boolowskich w postaci ANF. Istotnym zastosowaniem mnożenia funkcji boolowskich jest znajdowanie ich odporności algebraicznej, która z kolei jest ważna dla bezpieczeństwa szyfrów blokowych i strumieniowych. Zgodnie z definicją, odporno... więcej»

Modelowanie i implementacja układu sekwencera sygnałów ładunkowych z detektora GEM dla szybkiego systemu diagnostyki gorącej plazmy tokamakowej DOI:10.15199/59.2018.4.2
(Piotr KOLASIŃSKI, Krzysztof POŹNIAK, TOMASZ CZARSKI, Maryna CHERNYSHOVA, Michał GĄSKA, Paweł LINCZUK, Grzegorz KASPROWICZ, Rafał KRAWCZYK, Andrzej WOJEŃSKI, Wojciech ZABOŁOTNY)

Rolą współczesnych systemów diagnostycznych gorącej plazmy tokamakowej jest nie tylko zapewnienie szybkiego, wydajnego monitoringu zjawisk zachodzących w plazmie (m.in. prędkości rotacji, temperatury jonowej, koncentracji domieszek itp.), ale także niskolatencyjnego procesu sterowania uwięzieniem plazmy w polu magnetycznym (tj. pracy systemu w trybie sprzężenia zwrotnego). Zadania te wymagają zastosowania szybkich detektorów, umożliwiających wykrycie promieniowania plazmy z bardzo dużą częstością oraz użycia wielokanałowych, wydajnych obliczeniowo i niskolatencyjnych elektronicznych systemów pomiarowych pracujących w trybie czasu rzeczywistego. Wymagania te wynikają z potrzeby długotrwałego oraz powtarzalnego utrzymania procesu kontrolowanej syntezy termojądrowej następującej w gorącej plazmie tokamakowej w celu pozyskania nowego, bezpiecznego i bardzo wydajnego źródła energii. Dotychczasowe rozwiązania obrazowania zanieczyszczeń w plazmie zapewniały akwizycję danych pomiarowych w trakcie procesu wytwarzania i utrzymania plazmy, natomiast udostępnienie i analiza danych odbywały się w tzw. trybie off-line, tzn. już po zakończeniu eksperymentu. W artykule, tytułem wprowadzenia, omówiono zasadę działania systemu diagnostyki zanieczyszczeń pierwszej generacji zrealizowanego dla tokamaka JET. Wykorzystanie układów FPGA (Field-Programmable Gate Array) umożliwiło implementację szybkich procesów numerycznego przetwarzania sygnałów oraz procesu histogramowania wykonywanego równolegle dla wszystkich 256 kanałów pomiarowych detektora GEM (Gas Electron Multiplier), pracujących w zakresie miękkiego promieniowania X. Dzięki temu osiągnięto rozdzielczość czasową 10 ms dla serii kilku tysięcy kolejno wykonywanych rozkładów widmowych [1]. Konieczność dalszego zwiększenia rozdzielczości czasowej obrazowania do 1 ms (lub mniejszej), wraz z realizacją analizy spektralnej w czasie rzeczywistym (w tzw. trybie on-line), leży u podstaw budowy syst... więcej»

Dziewięćdziesięciolecie Przeglądu Telekomunikacyjnego 1928 – 2018 (Krystyn PLEWKO, Bogdan ZBIERZCHOWSKI)
Zarys historii Z inicjatywy Stowarzyszenia Teletechników Polskich (STP), zaledwie dwa lata po jego powstaniu, a więc przed 90 laty, ukazał się pierwszy zeszyt miesięcznika - Przegląd Teletechniczny (marzec-kwiecień 1928 r.). Była to realizacja zapisu w statucie tego Stowarzyszenia dotycząca powołania czasopisma. Miesięcznik ten - organ STP - był wydawany przy wsparciu Ministerstwa Poczt i Telegrafów. Cztery lata później - w roku 1932 - w zeszytach Przeglądu Teletechnicznego pojawił się dodatek pt.: Wiadomości Teletechniczne, który w roku 1935 przekształcił się w samodzielny miesięcznik. W roku 1939 Stowarzyszenie Teletechników Polskich połączyło się ze Stowarzyszeniem Elektryków Polskich, a oba miesięczniki - zachowując swoją odrębność - zmieniły nazwę na Przegląd Telekomunikacyjny i Wiadomości Telekomunikacyjne. Historia tych czasopism jest spleciona z losami wielu innych o tematyce telekomunikacyjnej, radiowej lub pocztowej. Związki te zilustrowano na rys. 1. Warto zauważyć, że w wymienionym okresie oba te miesięczniki dwukrotnie łączyły się ze sobą: po raz pierwszy w roku 1959, gdy Wiadomości Telekomunikacyjne (pod nazwą Tele- -Radio) zostały włączone do Przeglądu i po raz wtóry w roku 1992, gdy Wiadomości połączyły się z Przeglądem, zachowując swoją odrębność wewnątrz wspólnego zeszytu. W tej formule czasopismo to istnieje już od 27 lat (patrz literatura). Od roku 1950 Przegląd Telekomunikacyjny wraz z Wiadomościami Telekomunikacyjnymi był wydawany przez Wydawnictwo Czasopism Technicznych NOT, a obecnie jest wydawany przez Wydawnictwo Czasopism i Książek Technicznych SIGMA-NOT Sp. z o.o. Miesięczniki te były i - po połączeniu - są do dzisiaj organem Stowarzyszenia Elektryków Polskich, prezentując na swoich łamach tematykę Sekcji Technik Informacyjnych (dawniej Telekomunikacji) i Sekcji Radiotechniki SEP. Prze- * były redaktor naczelny Przeglądu Telekomunikacyjnego oraz Wiadomości Telekomunikacyjnych, a także PTiWT ** ... więcej»

Synteza wysokiego poziomu dla układów FPGA z wykorzystaniem metody partycjonowania grafów DOI:10.15199/59.2018.4.1
(Radosław CIESZEWSKI, Krzysztof POŹNIAK, Ryszard Romaniuk)

Synteza wysokiego poziomu HLS (High-Level Synthesis) jest nazywana także syntezą algorytmiczną lub syntezą behawioralną. To zautomatyzowany proces projektowania, interpretujący opis algorytmiczny przedstawiony w postaci języka wysokiego poziomu. Zadaniem procesu HLS jest implementacja algorytmu w zadanym sprzęcie - najczęściej w układzie FPGA (Field-Programmable Gate ArrayI) lub ASIC (Application-Specific Integrated Circuit). Synteza wysokiego poziomu stanowi przedmiot intensywnych badań od późnych lat siedemdziesiątych [1]. Pierwsze narzędzia HLS były tworzone dla wielu różnych języków umożliwiających opis algorytmiczny, jak np. Occam. Najnowsze, otwarte i komercyjne narzędzia zbudowane są na bazie języków wysokiego poziomu (High Level Description Language), takich jak ANSI C / C ++ / SystemC / System Verilog/ Java / Python [2,11-23]. Większość narzędzi analizuje kod wejściowy i konwertuje go do języka opisu sprzętu HDL (Hardware Description Language) na poziomie abstrakcji RTL (Register Transfer Level). Powszechnie używanymi językami opisu sprzętu są VHDL, Verilog i SystemVerilog. Kod wyjściowy jest następnie syntetyzowany do poziomu bramek za pomocą narzędzia do syntezy logicznej. Celem syntezy wysokiego poziomu jest umożliwienie projektantowi sprawnego zaprojektowania złożonego układu. Projektant tworzy algorytm na wysokim poziomie abstrakcji, podaje parametry wejściowe, a następnie narzędzie HLS automatycznie dokonuje implementacji. Kontrolę nad optymalizacją architektury sprzętowej zapewniają wewnętrzne algorytmy narzędzia HLS. architektura układów FPGA, która umożliwia realizację równoległych operacji logicznych i arytmetycznych, dla określonego rodzaju algorytmów umożliwia osiąganie lepszych wydajności niż w przypadku standardowych mikroprocesorów, gdzie co najwyżej kilka bloków logiczno-arytmetycznych wykonuje swoje zadania sekwencyjnie. Dlatego układy FPGA stanowią optymalne rozwiązanie dla algorytmów równoległych ... więcej»

2018-2-3

zeszyt-5448-przeglad-telekomunikacyjny-2018-2-3.html

 
W numerze m.in.:
Mechanizmy obsługi mobilności węzłów systemu netBaltic wykorzystujące heterogeniczne systemy transmisji bezprzewodowej DOI:10.15199/59.2018.2-3.3
(Michał HOEFT, Józef WOŹNIAK)

Pojawiające się nowe usługi przeznaczone do zastosowań morskich pociągają za sobą potrzebę zapewnienia efektywnej transmisji danych pomiędzy statkami oraz infrastrukturą znajdującą się na lądzie [1]. Zadanie zaprojektowania szerokopasmowej sieci, zapewniającej łączność na potrzeby usług e-nawigacji oraz weryfikacji jego funkcjonowania w środowisku testowym, podjęto w projekcie netBaltic [2,3], w którym to mechanizmy obsługujące łączność ląd- -statek zostały wykorzystane w strefie A systemu [4]. Prezentowane w artykule prace stanowią element projektu i pokazują praktyczny sposób wykorzystania mechanizmów zarządzania mobilnością, realizowanych w warstwie sieciowej do zapewnienia integracji szerokiego zasobu heterogenicznych systemów łączności, przy minimalnych wymaganiach narzuconych na wykorzystywane systemy. Wybierając pojedynczą technikę transmisji bezprzewodowej, staje się przed trudnym zadaniem, zmuszającym do kompromisów pomiędzy spodziewaną pojemnością systemu, maksymalnym zasięgiem komunikacji czy szacowaną przepustowością łączy - zatem różnymi parametrami i funkcjonalnościami zapewnianymi przez rozważane systemy. Wybór nie jest prosty, a wymienione ograniczenia z czasem pojawiają się nawet w systemach radiowych projektowanych od podstaw. Ciekawym sposobem rozwiązania przedstawionego dylematu wyboru jest próba, udanie podjęta w projekcie Internet na Bałtyku (netBaltic), wykorzystania i powiązania różnorodnych, heterogenicznych systemów transmisji bezprzewodowej w jeden system integrujący te techniki transmisji w ramach pojedynczej sieci teleinformatycznej, tj. systemu netBaltic. Warto podkreślić, że tak zdefiniowana heterogeniczność jest pojęciem zdecydowanie szerszym niż pojęcie niejednorodności odnoszące się jedynie do rozmiaru czy pojemności stacji bazowych, często występujące w niektórych pracach dotyczących heterogenicznych systemów sieci komórkowych [5]. Tym samym w przedstawionym rozwiązaniu problem obsługi mobil... więcej»

Heterogeniczne środowisko testowe na potrzeby weryfikacji mechanizmów systemu netBaltic DOI:10.15199/59.2018.2-3.8
(Michał HOEFT, Krzysztof GIERŁOWSKI)

Jednym z głównych założeń projektu netBaltic [1] było opracowanie mechanizmów umożliwiających realizację komunikacji szerokopasmowej z wykorzystaniem mechanizmów samoorganizacji sieci w środowisku heterogenicznym. Pierwsze etapy realizacji projektu, w których sprawdzano zasadność wprowadzania proponowanych rozwiązań, zakładały wykorzystanie w pełni kontrolowanych środowisk symulacyjnych, wirtualnych oraz laboratoryjnych [2]. Podnosząc poziom gotowości technologicznej, w ostatnich etapach projektu netBaltic wprowadzono weryfikację w środowisku zbliżonym do rzeczywistego. Weryfikacja obejmowała testy poprawności funkcjonowania poszczególnych komponentów, prawidłowości ich integracji oraz wzajemnego oddziaływania w systemie złożonym ze stacji bazowych różnych technik transmisji rozlokowanych na lądzie i testowych węzłów systemu umieszczonych na jednostkach pływających. Wiele przeprowadzonych testów dotyczyło obszaru Bałtyku Południowego, w szczególności Zatoki Gdańskiej i Zatoki Puckiej. W trakcie testów opracowano i zaimplementowano testowe węzły systemu netBaltic, zainstalowane następnie na jednostce badawczej Instytutu Oceanologii PAN s/y Oceania [3] wraz z łodziami RIB znajdującymi się na jej pokładzie oraz na łodzi motorowej Sonda II. Sieć nabrze żna Istotnym elementem infrastruktury testowej wykorzystywanej w procesie weryfikacji mechanizmów opracowanych w projekcie netBaltic była infrastruktura nabrzeżna, obejmująca stacje bazowe i punkty dostępowe różnych technik transmisji. W szczególności zaadaptowano następujące rozwiązania: - system D-STAR ze stacją bazową umieszczoną na dachu budynku WETI Politechniki Gdańskiej, jako przykład wąskopasmowego systemu dalekozasięgowego, pracującego w paśmie 1.2 GHz; - szerokopasmowy system WiMAX ze stacją bazową umieszczoną na dachu budynku WETI Politechniki Gdańskiej, wdrożony jako część instalacji testowej projektu Wireless City Gdańsk; - infrastrukturę LTE publicznego operatora tele... więcej»

Metody oceny jakości łączy bezprzewodowych wykorzystywanych w systemie netBaltic DOI:10.15199/59.2018.2-3.2
(Krzysztof BRONK, Rafał NISKI, Kacper WERESZKO, Krzysztof ŻUREK)

Jednym z głównych zadań w projekcie netBaltic [13] jest budowa heterogenicznej sieci teleinformatycznej na morzu, która w sposób automatyczny będzie analizowała stan dostępnych łączy bezprzewodowych oraz dokonywała wyboru tego łącza, które w danej chwili będzie najbardziej korzystne z punktu widzenia aktualnych warunków w kanale radiowym. W tym celu opracowano mechanizm oceny jakości łączy międzywęzłowych dla urządzeń znajdujących się w różnych strefach zasięgu systemu. Mechanizm ten umożliwi wybór optymalnego pod względem jakości łącza bezprzewodowego dla danej usługi. Ocena przydatności różnego rodzaju łączy bezprzewodowych będzie odbywała się na podstawie porównania wartości parametru LQI (Link Quality Indicator), wyznaczanej dla każdego z systemów dostępnych w danym miejscu i czasie. Zastosowanie tego samego kryterium do oceny jakości różnych systemów umożliwi bezpośredni sposób porównania jakości oferowanych przez nie usług bezprzewodowej transmisji danych. Opisana w artykule koncepcja mechanizmu oceny jakości łączy powstała w wyniku analizy danych zgromadzonych podczas kampanii pomiarowych realizowanych w ramach projektu na wodach Morza Bałtyckiego [7, 9] oraz badań i testów prowadzonych w środowisku laboratoryjnym [8, 10]. Przedstawiono definicję parametru LQI oraz sposób jego wyznaczania dla sieci 3G i LTE w strefie A systemu netBaltic [11, 12], w której statki komunikują się z wykorzystaniem lądowej infrastruktury operatorów komórkowych oraz dla sieci WiFi w strefach B i C, gdzie statki nie mają bezpośredniej łączności z brzegiem i jedynym mechanizmem komunikacji jest łączność statek-statek. Metoda oceny jakości łączy WiFi może być również wykorzystana do oceny jakości nadbrzeżnej (np. portowej) infrastruktury sieci dostępowych do łączności w relacji ląd-statek w strefie A. W dalszej części artykułu przedstawiono poglądową koncepcję budowy węzła systemu netBaltic z uwzględnieniem mechanizmu oceny jakości łączy. De... więcej»

Mechanizmy bezpieczeństwa w strefie C systemu netBaltic DOI:10.15199/59.2018.2-3.5
(Tomasz GIERSZEWSKI)

W celu zapewnienia bezpieczeństwa systemu zaproponowano i zaimplementowano dwa rozłączne dla stref A, B (samoorganizująca się wieloskokowa sieć kratowa [10], [11], [16]) oraz C (sieć niewrażliwa na opóźnienia [7], [8]) zbiory funkcjonalności, mające zabezpieczyć dane. Całość architektury zabezpieczeń przedstawiono w artykule [5]. Z punktu widzenia bezpieczeństwa w strefach A i B położono nacisk na funkcjonalności związane z uwierzytelnianiem węzłów, które mogą wchodzić w interakcję prowadzącą do wymiany danych, a także z poufnością transmitowanych informacji [6]. W strefie C wymaganie, dotyczące wzajemnego uwierzytelnienia węzłów przesyłających między sobą tzw. wiadomości, zostało uzupełnione o poufność nie tylko podczas transmisji - co byłoby możliwe do zrealizowania już mechanizmami zaproponowanymi dla stref A i B - ale także poufność danych przechowywanych w węzłach. Transmisja w strefie C jako wieloskokowa z nieciągłą łącznością zapewnia funkcjonalność store-and-forward. Ponieważ węzły systemu czasowo przechowują transmitowane wiadomości, należało zapewnić ich poufność oraz integralność, zabezpieczającą przed ujawnieniem informacji, możliwościami podszycia się czy manipulacji jej zawartością wewnątrz samych węzłów. Podobnie do zabezpieczeń komunikacji w strefach A i B, znalazła tutaj zastosowanie infrastruktura klucza publicznego (PKI). Zabezpieczeniewiadomo ści Strefa C, jako realizacja sieci niewrażliwej na opóźnienia (DelayTolerant Network - DTN [3], [15]), wyróżnia się transmisją relatywnie dużych, w odniesieniu do wielkości datagramów czy pakietów, wiadomości. Każda wiadomość stanowi realizację pojedynczego aktu komunikacji pomiędzy parą węzłów, np. żądania pewnej zawartości lub odpowiedzi na zgłoszone żądanie. Każda wiadomość zabezpieczana jest z użyciem certyfikatów X.509, tych samych, które wykorzystywane są na potrzeby zabezpieczania stref A i B. Dostarczane są dwie funkcje bezpieczeństwa - integralność i poufno... więcej»

Integracja mechanizmów transportowych dla sieci o nieciągłej i sporadycznej łączności w systemie netBaltic DOI:10.15199/59.2018.2-3.6
(Wojciech GUMIŃSKI)

Sprawdzenie możliwości zapewnienia szerokopasmowego dostępu do Internetu na obszarze Morza Bałtyckiego z wykorzystaniem samoorganizującej się sieci wieloskokowej było podstawowym celem projektu Internet na Bałtyku [1, 2, 3]. Gęstość jednostek na Morzu Bałtyckim, dostępne zasięgi transmisji i krzywizna ziemi powodują, że zasięg takiej sieci nie może pokrywać całego obszaru morza [7]. Część jednostek musi pływać na obszarach pozbawionych łączności z lądem. Dla tych obszarów w ramach projektu Internet na Bałtyku opracowano algorytmy dostarczania wiadomości w warunkach sporadycznej i przerywanej łączności [6]. Rozwiązanie to, utrzymane w konwencji sieci DTN (Delay Tolerant Networking) [4, 5], zostało dopasowane do wybranego zestawu przykładowych usług możliwych do realizacji w systemie. Jak wynika z analizy historycznych danych systemu AIS (Automatic Identification System) oraz przeprowadzonych na ich podstawie symulacji [7], przerwy w transmisji na wybranych akwenach Bałtyku mogą trwać nawet od kilku do kilkudziesięciu godzin. Takie warunki uniemożliwiają funkcjonowanie tradycyjnych protokołów transportowych, wymagających ciągłej i dwukierunkowej łączności. Aby zapewnić działanie usług w strefie braku ciągłej łączności z lądem (strefa C projektu), zaproponowano architekturę (usługową) z wykorzystaniem serwera proxy dla usług i jednokierunkowej transmisji kompletnych paczek wiadomości zawierających wszystkie niezbędne dla danej usługi dane[6]. MODUŁ TRANSPORTOWY Najważniejszym elementem architektury z wykorzystaniem serwera proxy jest moduł transportowy. Jego zadaniem jest przekazywanie paczek wiadomości niezależnie od ich treści. Moduł ten odpowiada za przekazywanie wiadomości, zabezpieczenie ich treści przed modyfikacjami oraz zapewnienie poufności transmisji - od źródła do celu (end-to-end). Realizacja tych zadań wymaga integracji modułu transportowego z pozostałymi elementami systemu netBaltic. Integracja zmechanizmami samo... więcej»

2018-1

zeszyt-5395-przeglad-telekomunikacyjny-2018-1.html

 
W numerze m.in.:
Ewolucja technik dostarczania sygnału telewizyjnego na przykładzie Winogradzkiej Telewizji Kablowej DOI:10.15199/59.2018.1.2
(Borys Owczarzak, Piotr Zwierzykowski)

W sieciach telewizji kablowej od wielu lat sukcesywnie wprowadzana jest oferta usługi dostępu do Internetu. Zauważyli to również nadawcy sygnału telewizyjnego, którzy obecnie udostępniają sygnały telewizyjne także za pośrednictwem sieci teleinformatycznych. Wykorzystanie tego typu sieci do dystrybucji sygnału telewizyjnego wiąże się jednak z koniecznością zapewnienia komunikacji z nadawcami różnych programów telewizyjnych. Rozwiązanie to jest bardziej złożone od tradycyjnego podejścia, które opiera się na standardach DVB-S/S22) oraz DVB-T (Digital Video Broadcasting - Terrestrial). 2) DVB-S (Digital Video Broadcasting-Satellite) - standard cyfrowego przesyłu telewizji satelitarnej [2] 1) WTvK jest operatorem od wielu lat działającym w Poznaniu. Sieć operatora obejmuje 22 tys. mieszkańców jednej z największych dzielnic Poznania. Obecnie firma ma w swojej ofercie ponad 200 kanałów cyfrowych (zarówno SD, jak i HD). PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XCI  nr 1/2018 9 nowymi kanałami telewizyjnymi towarzyszy dynamiczny rozwój technologii sieci teleinformatycznych. Efektem tego jest coraz większa przepływność sieci, której towarzyszy obniżenie kosztów budowy i eksploatacji sieci teleinformatycznych. Dostrzegli to i wykorzystali operatorzy i dostawcy treści dla sieci telewizji kablowych, zapewniając odbiór strumieni telewizyjnych o wiele lepszej jakości. Na rys. 1 przedstawiono komponenty sygnału telewizyjnego kanału TVP 1 HD nadawanego przez: satelitę HotBird z transpondera numer 13, naziemny nadajnik w Śremie oraz przez IP z punktu wymiany ruchu PWR PLIX4) w Warszawie. Do oceny jakości kanału telewizyjnego najczęściej wykorzystuje się przepływność sygnału wizyjnego (komponent AVC/H.2645) Video). Komponent ten w przypadku kanału TVP 1 HD (tabela 1) dostępny po IP wynosi 9,8 Mbit/s i jest ponad trzy razy większy od sygnału przesyłanego naziemnie (3,0 Mbit/s) i prawie dwa razy większy od sygnału przesyłanego sateli... więcej»

Katedra Telekomunikacji Morskiej na Wydziale Elektrycznym Akademii Morskiej w Gdyni DOI:10.15199/59.2018.1.1
(Beata Pałczyńska, Andrzej Łuksza, Andrzej Borys)

Rys historyczny Katedra Telekomunikacji Morskiej w Akademii Morskiej w Gdyni w obecnym kształcie powstała w 2005 roku w wyniku reorganizacji Wydziału Elektrycznego. Wówczas Katedrę Radioelektroniki Morskiej podzielono na dwie nowe: Katedrę Telekomunikacji Morskiej i Katedrę Elektroniki Morskiej. Historia Katedry sięga jednak roku 1969, kiedy w strukturze Wyższej Szkoły Morskiej (WSM) w Gdyni powstał na Wydziale Elektrycznym Zespół Elektroniki, kierowany przez doc. mgr. inż. Olgierda Teisseyre’a. W 1973 roku zamiast dotychczasowych zespołów powołano instytuty, m.in. Instytut Automatyki i Radiokomunikacji Morskiej, w którym funkcję kierownika pełnił doc. dr inż. Jerzy Wieland. Od 1980 roku zaczyna funkcjonować samodzielny Instytut Radiokomunikacji Morskiej, kierowany kolejno przez doc. dr. inż. Jerzego Czajkowskiego (1980-1982) i doc. dr. inż. Macieja Walaszka (1982-1987), przemianowany cztery lata później na Instytut Radioelektroniki Morskiej. Funkcję dyrektora tego Instytutu od roku 1987 pełnił dr hab. inż. Wiesław Sieńko. W 1993 roku zamiast istniejącego instytutu powołano Katedrę Radioelektroniki Morskiej, której kolejnymi kierownikami byli doc. dr inż. Jerzy Czajkowski (1993-1997) oraz dr hab. inż. Janusz Zarębski (1997-2005) [1]. Kompetencje kadry naukowo -dydakty cznej Pierwszym kierownikiem Katedry Telekomunikacji Morskiej (KTM) został dr hab. inż. Wiesław Sieńko, profesor nadzwyczajny Akademii Morskiej w Gdyni (AMG). Prof. W. Sieńko jest absolwentem Wydziału Elektroniki Politechniki Gdańskiej (WE PG), a w latach 1967-1987 był nauczycielem akademickim WE PG. Od roku 1987 jest pracownikiem Wydziału Elektrycznego WSM w Gdyni, gdzie w latach 1993-1999 pełnił funkcję dziekana Wydziału Elektrycznego. 4 PRZEGLĄD TELEKOMUNIKACYJNY  ROCZNIK XCI  nr 1/2018 - badania nad wykorzystaniem sieci neuronowych jako narzędzi w programowaniu optymalizacyjnym oraz struktur neuroprocesorów [8, 9]. Prace naukowo-ba... więcej»

O złożoności problemu wyznaczania podstawy logarytmu dyskretnego w schemacie Diffi'ego-Hellmana DOI:10.15199/59.2018.1.3
(Andrzej Paszkiewicz)

W schemacie podziału sekretu Diffi'ego-Hellmana w grupie multiplikatywnej reszt modulo liczba pierwsza zasadniczym i najbardziej pracochłonnym problemem jest wybór generatora tej grupy. W pracy [4] szczegółowo rozpatrzono ten problem, wykonując serię rozległych eksperymentów z wykorzystaniem lokalnych sieci komputerowych oraz otwartego środowiska Internet. W krytycznej fazie eksperymentu uczestniczyło ponad 400 stacji roboczych, głównie komputerów IBM PC, będących w użytkowaniu studentów. Z przeprowadzonych badań, które zakończyły się w kwietniu 2007 roku, wynika, że generatory grup multiplikatywnych modulo liczba pierwsza (zwane też pierwiastkami pierwotnymi modulo liczba pierwsza) wyrażają się małymi liczbami naturalnymi. Na przykład liczby 2, 3 lub 5 są najmniejszymi pierwiastkami pierwotnymi w ok. 74% przypadków. Jeżeli dołączy się do tego zbioru liczbę 6, wówczas obejmie on prawie 80% wszystkich liczb pierwszych. Nie jest to jednak reguła, ponieważ zdarzają się przypadki, w których nawet dla małych liczb pierwszych (liczb, które dają się zapisać na 64 bitach) ich najmniejszy pierwiastek wydaje się znacznie odbiegać od ich statystycznego zachowania. Ponadto z badań wynika, że gęstości liczb pierwszych, dla których najmniejszy generator (najmniejszy pierwiastek pierwotny) jest równy danej liczbie naturalnej, dążą do pewnych ustalonych wartości, które można efektywnie policzyć przy założeniu prawdziwości hipotezy Riemanna o funkcji dzeta nad pewnymi ciałami Kummera. Zgodność wyników uzyskanych doświadczalnie z wynikami uzyskanymi na drodze teoretycznej jest zdumiewająca. Z badań wynika, że wielkość najmniejszego pierwiastka pierwotnego modulo liczba pierwsza jest funkcją wielomianowo zależną od logarytmu tej liczby. Warunkowe wyniki teoretyczne szacują tę złożoność jako funkcję zależną od kwadratu logarytmu naturalnego liczby pierwszej [4]. Badania numeryczne pokazują, że może to być funkcja wolniej rosnąca, niż kwad... więcej»

Dostarczanie rozwiązań chmurowych "szytych na miarę" DOI:10.15199/59.2018.1.4
(Wojciech Michalski)

Komisja Europejska dostrzega ogromny potencjał w rozwoju chmury obliczeniowej, który powinien być wykorzystany na rzecz pobudzenia wydajności gospodarek państw członkowskich UE. W przyjętej we wrześniu 2012 r. strategii [1] założono wykorzystanie chmury obliczeniowej przez przedsiębiorstwa i administrację publiczną właśnie w tym celu. Działania KE związane z wprowadzeniem w życie tej strategii zostały podane w Europejskiej Agendzie Cyfrowej. Oczekiwane korzyści wymieniono natomiast w komunikacie KE w sprawie wykorzystania potencjału chmury obliczeniowej w Europie oraz w dokumencie roboczym KE do tego komunikatu. Dla osiągnięcia celów tej strategii istotne są takie działania, jak: - uporządkowanie dużej liczby różnych norm, - opracowanie bezpiecznych i uczciwych warunków zawierania umów na usługi w chmurze, w tym umów o gwarantowanym poziomie usług, - ustanowienie modelu europejskiego partnerstwa na rzecz chmur obliczeniowych z udziałem państw członkowskich i podmiotów branżowych. Do rozwiązania kwestii wynikających z tych działań powołano grupę ekspertów. W jej skład wchodzą przedstawiciele dostawców usług przetwarzania w chmurze, konsumentów i MŚP oraz środowisk akademickich i prawniczych. Ich zadaniem jest opracowanie warunków umów, umożliwiających konsumentom oraz małym i średnim przedsiębiorstwom korzystanie z większym zaufaniem z usług świadczonych w modelu chmury obliczeniowej. Producenci, którzy podjęli wyzwanie rzucone przez Komisję Europejską, stosują zróżnicowane strategie dostarczania klientom swoich rozwiązań chmurowych. Niektórzy, tacy jak Cisco, mający w swojej ofercie pakiet firmowych urządzeń sieciowych i dedykowane oprogramowanie, kierują ofertę do klientów, któ-... więcej»

Od telefonizacji do cyfryzacji
W dniu 14 grudnia 2017 roku Krajowa Komisja Kwalifikacyjna Polskiej Izby Inżynierów Budownictwa nadała Dariuszowi Cierpińskiemu tytuł rzeczoznawcy budowlanego w telekomunikacji przewodowej, w zakresie projektowania i kierowania robotami budowlanymi (patrz strona następna). Dariusz Cierpiński jest trzecią osobą, której nadano tak prestiżowy tytuł w budownictwie telekomunikacyjnym w okresie ostatnich trzech lat. Obecnie grono rzeczoznawców budowlanych w telekomunikacji na terenie Polski liczy jedynie 43 osoby. Rzeczoznawca budowlany jest ekspertem w zakresie prawa budowlanego oraz budownictwa. Jego rolą jest sporządzanie opinii oraz ekspertyz z zakresu budownictwa. Może sprawować funkcję biegłego sądowego, a jego opinie traktowane są jako dowody w sprawach. Na podstawie ustawy o samorzą... więcej»

Redakcja:
ul. Ratuszowa 11, pok. 637
00-950 Warszawa
tel.: +48 22 670 08 20
faks: 22 619 86 99
e-mail: przeg.tel@sigma-not.pl, przeg.tel@interia.pl
www: http://przegladtelekomunikacyjny.pl

Czasopisma Wydawnictwa SIGMA-NOT można zaprenumerować w jednym z następujących wariantów: 

· Prenumerata roczna, półroczna i kwartalna czasopism w wersji papierowej,

· Prenumerata roczna w wersji PLUS (wersja papierowa i dostęp do Portalu Informacji Technicznej www.sigma-not.pl w ramach zaprenumerowanego tytułu),

· Prenumerata ulgowa – z rabatem wg cennika (przysługuje osobom fizycznym, należącym do stowarzyszeń naukowo-technicznych oraz studentom i uczniom szkół zawodowych),

· Prenumerata ciągła w wersji PLUS – z 10% rabatem na każdy zaprenumerowany tytuł uzyskiwanym po podpisaniu umowy z Wydawnictwem SIGMA-NOT, przedłużanej automatycznie z roku na rok aż do momentu złożenia rezygnacji,

· Prenumerata zagraniczna – wysyłka czasopisma za granicę za dopłatą 100% do ceny prenumeraty krajowej.

 

Cennik prenumeraty 30 tytułów Wydawnictwa SIGMA-NOT (2015 rok)

 

Prenumeratę można zamówić bezpośrednio w Zakładzie Kolportażu Wydawnictwa SIGMA-NOT:

telefonicznie: (22) 840 30 86 lub 840 35 89 lub faksem: (22) 891 13 74, 840 35 89, 840 59 49

mailem: prenumerata@sigma-not.pl lub na stronie: www.sigma-not.pl

listownie: Zakład Kolportażu Wydawnictwa SIGMA-NOT Sp. z o.o., ul. Ku Wiśle 7, 00-707 Warszawa

oraz dokonując wpłaty na konto Wydawnictwa SIGMA-NOT Sp. z o.o.:
ul. Ratuszowa 11, 00-950 Warszawa, skr. poczt. 1004,
nr konta 24 1020 1026 0000 1002 0250 0577

 

Ogólne warunki prenumeraty czasopism fachowych Wydawnictwa SIGMA-NOT

 

Prenumeratorzy, którzy mają wykupioną prenumeratę u innego kolportera, mogą dokupić dostęp do Portalu w cenie 90 zł (netto) na rok, po przedstawieniu dowodu wpłaty na prenumeratę. Należy go przesłać do Zakładu Kolportażu wraz z zamówieniem na dostęp do Portalu Informacji Technicznej: mailem: kolportaz@sigma-not.pl lub faksem 22 891 13 74 

 

Informacja

Jeżeli zamawiana prenumerata, obejmuje numery na przełomie roku 2015/2016, to otrzymają Państwo dwie faktury. Jedna faktura na numery z 2015 roku, natomiast druga na numery z 2016 roku wg cennika na 2015 rok.

Formularze zamówienia na prenumeratę czasopism Wydawnictwa SIGMA-NOT dostępne są  na stronach poszczególnych tytułów, a formularz zbiorczy (umożliwiający zaprenumerowanie od razu kilku tytułów) – po kliknięciu w pole poniżej. 

·  FORMULARZ ZAMÓWIENIA - CZASOPISMA WYDAWNICTWA SIGMA-NOT

 

Prenumerata ciągła

Ta oferta, wprowadzona została z myślą o Państwa wygodzie, to tak zwana Prenumerata ciągła w wersji PLUS. Państwo zamawiacie nasze czasopisma tylko raz, a prenumerata przedłużana jest przez nas automatycznie z roku na rok, aż do momentu złożenia przez Państwa rezygnacji. Korzystając z tej oferty, nie musicie Państwo pamiętać pod koniec każdego roku o odnowieniu prenumeraty na rok następny, a ponadto Wydawnictwo SIGMA-NOT udzieli Państwu 10% bonifikaty na prenumerowane tytuły oraz na dostęp do Portalu Informacji Technicznej.

· FORMULARZ ZAMÓWIENIA Prenumeraty Ciągłej (plik .pdf)

 

Po jego wydrukowaniu, wypełnieniu i podpisaniu prosimy o przesłanie umowy (w dwóch egzemplarzach), do Zakładu Kolportażu Wydawnictwa SIGMA-NOT, ul. Ku Wiśle 7, 00-707 Warszawa.

 

Czasopisma innych wydawców można zaprenumerować w Zakładzie Kolportażu Wydawnictwa SIGMA-NOT w wariantach

· prenumerata roczna w wersji papierowej,

· prenumerata ulgowa – z rabatem wg cennika (przysługuje osobom fizycznym, należącym do stowarzyszeń naukowo-technicznych oraz studentom i uczniom szkół zawodowych.

· FORMULARZ ZAMÓWIENIA - CZASOPISMA INNYCH WYDAWCÓW

Wydawnictwo SIGMA-NOT proponuje Państwu usługi w zakresie publikacji reklam, ogłoszeń lub artykułów sponsorowanych na łamach wszystkich wydawanych przez siebie czasopism. Nie ograniczamy jednak naszych usług do jedynie papierowej formy. Oferujemy Państwu również możliwość emisji na naszym Portalu Informacji Technicznej www.sigma-not.pl oraz stronach redakcyjnych poszczególnych tytułów. Służymy pomocą edytorską przy tworzeniu materiałów promocyjnych.

Pozostajemy do Państwa dyspozycji i chętnie odpowiemy na wszystkie pytania.

KONTAKT:

Dział Reklamy i Marketingu
ul. Ratuszowa 11
00-950 Warszawa skr. poczt. 1004
tel./faks: 22 827 43 65 
e-mail: reklama@sigma-not.pl

Pliki do pobrania:

Druk zamówienia wraz z warunkami zamieszczania reklam.

Cennik ogłoszeń i reklam kolorowych oraz czarno-białych w czasopismach Wydawnictwa

Cennik e-reklam na stronach Portalu Informacji Technicznej

Warunki techniczne umieszczania e-reklamy na stronach Portalu Informacji Technicznej

Wydawnictwo SIGMA-NOT, należące do Federacji Stowarzyszeń Naukowo-Technicznych - Naczelnej Organizacji Technicznej, to największy polski wydawca prasy fachowej o ukierunkowaniu technicznym. Jako zorganizowana oficyna działa od 1949 r., a najstarszy wydawany tytuł - „Przegląd Techniczny” - liczy sobie 150 lat.

W portfolio Wydawnictwa SIGMA-NOT znajdują się obecnie 32 unikalne tytuły prasy fachowej. Czasopisma te działają na wielu płaszczyznach i są skierowane do wszystkich zainteresowanych tematami naukowo-technicznymi zarówno zawodowo, jak i czysto hobbystycznie, poszerzając ich kulturę techniczną. Czyta je miesięcznie ponad 200 tys. osób, które mogą w nich odnaleźć interesujące ich artykuły o nowinkach technicznych, najświeższych osiągnięciach naukowych, popularnych problemach w danej dziedzinie, a także analizy rynku, komentarze do bieżących wydarzeń gospodarczych oraz relacje z imprez i konferencji naukowo-technicznych.

Ofertę Wydawnictwa poszerzają publikacje książkowe; obecnie w sprzedaży jest pozycja książkowa „22 zadania służby BHP – standardy działania” autorstwa Lesława Zielińskiego oraz "ADR, REACH, CLP Niebezpieczne Chemikalia Poradnik" Bolesława Hancyka.

Poza czasopismami i książkami, nieprzerwanie od 1952 r. SIGMA-NOT wydaje również „Terminarz Technika” – wygodny kalendarz, zawierający - poza kalendarium - podstawowe informacje techniczne, świetnie znany już trzem pokoleniom polskich inżynierów.

Wszystkie artykuły opublikowane w czasopismach SIGMA-NOT począwszy od 2004 roku dostępne są także w wersji elektronicznej na Portalu Informacji Technicznej www.sigma-not.pl, który przeglądają Państwo w tej chwili. Każdy artykuł można kupić poprzez sms, e-płatności, lub posługując się tradycyjnym przelewem, a także w ramach dostępu do „Wirtualnej Czytelni”. Prenumeratorzy czasopism w wersji PLUS mogą korzystać za pośrednictwem „Wirtualnej Czytelni” z bazy artykułów zaprenumerowanego tytułu bez ograniczeń.

Wydawnictwo SIGMA-NOT ma w swoich strukturach Drukarnię oraz Zakład Kolportażu, które świadczą także usługi klientom zewnętrznym.

Zapraszamy do lektury i współpracy!

Wydawnictwo Czasopism i Książek Technicznych SIGMA-NOT Sp. z o.o.
ul. Ratuszowa 11 tel.: 22 818 09 18, 22 818 98 32
00-950 Warszawa, skr. poczt. 1004 e-mail: sekretariat@sigma-not.pl

Kontakt w sprawie zakupów internetowych - tel. 601318457, sigmanot@gmail.com

NIP: 524-030-35-01
Numer KRS: 0000069968
REGON: 001408973
Sąd Rejonowy dla m.st. Warszawy XIII Wydział Gospodarczy
Numer konta bankowego: Bank PKO BP 86 1020 1042 0000 8102 0010 2582
Numer konta bankowego dla prenumeraty: Bank PKO BP 24 1020 1026 0000 1002 0250 0577

Szanowni Państwo,
poniżej udostępniamy link zawartością archiwalnej strony czasopisma
Archiwalna strona www