Wyciekły dane z Departamentu Policji w Waszyngtonie

bezpieczeństwo 28/04/2021

Policja Metropolitarna z Waszyngtonu jest kolejną ofiarą policyjną, która stała się celem ataku ransomware w Stanach Zjednoczonych. The New York Times informuje, że jest to od początku tego roku dwudziesty szósty cyberatak na agencję rządową.

Cyberprzestępcami okazała się rosyjskojęzyczna grupa Babuk, która przyznała się do przeprowadzonego ataku i zażądała okupu. Grupa przestępcza opublikowała wiadomość, że udało im się pobrać ok. 250 GB danych i zagroziła, że je ujawnią, jeśli nie otrzymają okupu w ciągu 3 dni. Dodatkowo zagrozili, że ujawnią tajne informacje grupom przestępczym i będą kontynuować ataki na sektor państwowy. Amerykańscy gangsterzy chętnie zapłacą za takie dane, a grupa Babuk doskonale zdaje sobie z tego sprawę i dlatego nie będzie ustępliwa w swoich żądaniach. Grupa cyberprzestępcza wydała dodatkowo oświadczenie, że w przyszłości nie będą atakować szkół, szpitali oraz organizacji charytatywnych i małych przedsiębiorstw co można uznać za pozytywną ich stronę choć w przypadku instytucji rządowych może być to niekorzystne, gdyż nie zależy im na „dobrym” czy „pozytywnym” wizerunku cyberprzestępców.

Ataki Ransomware sięgają dekadę wstecz, kiedy cyberprzestępcy z Europy Wschodniej zainfekowali indywidualnych użytkowników komputerów złośliwym oprogramowaniem, które szyfrowało ich dane do czasu opłaty okupu. Od tamtej pory cyberprzestępcy sięgają coraz wyżej i organizują wielkie ataki w tym w Stanach Zjednoczonych na m.in. na duże korporacje. Przykładem może być korporacja Honeywell, która w tym miesiącu również padła ofiarą ataku ransomware. Departament Sprawiedliwości USA informuje, że pandemia Covid-19 ma widoczne przełożenie na to, że rok 2021 stał się najgorszym rokiem w historii ataków ransomware.

Zobacz także:
Bezpieczeństwo IT w firmie – czytaj więcej
Audyt IT – czytaj więcej
Outsourcing IT Warszawa- czytaj więcej
Monitoring dla firm

bezpieczeństwo 27/04/2021

PM Digital wspiera swoich klientów w podnoszeniu świadomości pracowników na temat cyberbezpieczeństwa. Na przełomie marca i kwietnia zorganizowaliśmy bezpłatne akcje edukacyjne, które obejmowały podstawowe zasady bezpieczeństwa w sieci. Przedsięwzięcie sprowadzało się do wyświetlania krótkich informacji na tematy związane z szeroko rozumianym cyberbezpieczeństwem m.in. stosowanie managera haseł czy jak poznać bezpieczną stronę internetową.

Tego typu akcje edukacyjne są idealnym rozwiązaniem dla firm, które chcą przywrócić czujność pracowników i przypomnieć im o zagrożeniach w sieci w sposób niezakłócający codzienną pracę.

Cykliczność szkoleń i akcji edukacyjnych jest bardzo ważna, ponieważ tzw. czynnik ludzki stanowi wg licznych badań najsłabsze ogniwo w ochronie przed atakami. Wynika to z faktu, że pracownicy bardzo szybko zapominają o „niewidzialnych przestępcach” i czują się pozornie bezpiecznie.

Akcje edukacyjne przeprowadziliśmy m.in. w Urzędzie Gminy Osieck i Celestynów. Podniesienie świadomości pracowników, którzy na co dzień zobowiązani są do zachowania bezpieczeństwa informacji było dla nas ciekawym i budującym doświadczeniem.

Zobacz także:
Bezpieczeństwo IT w firmie – czytaj więcej
Audyt IT – czytaj więcej
Outsourcing IT Warszawa- czytaj więcej
Monitoring dla firm

bezpieczeństwo 21/04/2021

RCB ogłosiło wszczęcie procedury wyjaśniającej wyciek danych osobowych m.in. funkcjonariuszy CBŚP, policjantów, straży miejskiej, strażaków, urzędników, celników, pracowników Służby Więziennej.

Pracownik RCB udostępnił w popularnym serwisie, który pozwala na wizualizację danych plik Excel z niezabezpieczoną bazą danych do której miały dostęp wszystkie osoby korzystające z oprogramowania ArcGIS. Tabela zawierała m.in. imię i nazwisko, PESEL, adres e-mail, numer telefonu i miejsce pracy. Kolumny tabeli wskazują na to, że była to baza osób zapisanych na szczepienia w okresie 12-20.04.2021.

Nie jest to pierwszy wyciek danych w Polsce i na Świecie, który powinien być przestrogą i zapalać lampkę z tyłu głowy, że nasze dane praktycznie nigdy nie są w 100% bezpieczne i powinniśmy dołożyć wszelkich starań, aby je zabezpieczyć. Oczywiście w tej sytuacji wina jest jednoznacznie jednostronna i poszkodowani nie mogli nic więcej uczynić, jednakże jest to kolejny przykład, gdzie zabezpieczenia nie odgrywają głównej roli, ponieważ zawinił czynnik ludzki. Dlatego właśnie pracodawcy powinni równomiernie rozłożyć finansowanie w bezpieczeństwo firmy i rozwijać nie tylko zabezpieczenia technologiczne, ale również przeprowadzać szkolenia i podnosić świadomość pracowników.

Po wycieku danych zaleca się aby poszkodowani zmienili numery telefonów i/lub zmienili numery przy wszelkiego rodzaju autoryzacjach lub weryfikacjach dwuetapowych, a także, aby nie używali już tych numerów do jakichkolwiek zabezpieczeń w przyszłości.

Zobacz także:
Bezpieczeństwo IT w firmie – czytaj więcej
Audyt IT – czytaj więcej
Outsourcing IT Warszawa- czytaj więcej
Monitoring dla firm

IT 20/04/2021
A było to tak…

Intel jeszcze w 2015 roku był tak właściwie jedynym słusznym producentem procesorów, a AMD ze swoimi procesorami FX zawiodło na całej linii. Doprowadziło to do sytuacji, w której procesory AMD były mocno wykorzystywane w memach, które naśmiewały się z tego, że dają jak największą ilość rdzeni czy wątków przy wręcz bardzo słabej wydajności pojedynczego rdzenia/wątka, do tego nie martwiąc się o pobór energii (a tym samym też temperatury). Wtedy też na scenie IT mówiło się, że posiadając procesor AMD w komputerze nie potrzebujemy kaloryferów, bo AMD się tak grzeje.

To wszystko zmieniło się przy okazji premiery pierwszej generacji procesorów Ryzen. Z początku, gdy ogłaszano premierę tych procesorów, raczej stawiano na rozbudowę serii FX. Nawet informacje, że najwydajniejszy procesor Ryzen z serii 1000 ma mieć 8 rdzeni i 16 wątków (więc dwa razy więcej, niż topowy procesor FX) raczej nie napawały optymizmem, a internetowe żarciki tylko się nakręcały, bo mem pod tytułem „wincyj rdzeniuf” się sprawdzał.


Intel oczywiście też miał swoje za uszami. Przez brak konkurencji zaczęły się cięcia (bo i tak wszyscy kupią ich procesory). Można tu choćby wspomnieć o sławnym „glucie”, czyli słabej jakości paście termoprzewodzącej pomiędzy rdzeniem procesora, a IHS’em, który przy i7-7700K tak właściwie jedynie nadawał się do zmiany na ciekły metal, a to nie dość, że generowało dodatkowe koszty, bo trzeba było to zrobić we własnym zakresie to również wiązało się z otwieraniem procesora i tym samym utratą gwarancji. To samo można powiedzieć o zatrzymaniu się na takiej samej ilości rdzeni każdej serii. Do dzisiaj widząc serię i3 mamy przed oczami 2 rdzenie i 4 wątki, i5 – 4 rdzenie i 4 wątki, a w przypadku i7 – 4 rdzenie/8 wątków. Doprowadziło to do tego, że i7-2600K, czyli procesor z początku 2011 roku był niewiele słabszy od nawet i7-7700K, a dzieliło je ponad 6 lat różnicy.

W 2017 roku Intel wydaje siódmą serię procesorów, które względem poprzedników nie różnią się prawie niczym. Kilka miesięcy później AMD natomiast wprowadza na rynek Ryzen pierwszej generacji. Coś zaczyna się zmieniać. AMD całkowicie przekształciło swoje procesory, dzięki czemu najwydajniejszy procesor – Ryzen 7 1800X – nie grzeje się, osiąga bardzo dobre rezultaty w programach użytkowych i zużywa minimalnie więcej energii, niż topowy procesor Intel’a – i7-7700K. A trzeba pamiętać, że miał on zdecydowanie – już tutaj często wymienianych – rdzeni i wątków. Nie były to jednak procesory idealne. Wystarczy przytoczyć problemy z kontrolerem pamięci, przez którego procesor nie chciał działać z wyżej taktowanymi pamięciami RAM (w aktualnych procesorach takowe problemy już nie występują). Fakt faktem jednak wreszcie była jakaś odpowiedź na Intel’a.
Aktualnie – w 2021 roku, mamy już piątą generację procesorów Ryzen. AMD z każdą kolejną iteracją procesorów obniża litografię lub też ją dopracowywał, dzięki czemu ich procesory pobierają coraz mniej energii, a tym samym – mniej się grzeją. Intel natomiast przespał całą batalię. Od pięciu serii procesorów (Broadwell) nie została obniżona litografia i do dziś utrzymuje się ona na 14nm. Przez 6 lat, podczas których wyszło aż 6 generacji procesorów Intel nawet minimalnie nie obniżył litografii. Musiało to przynieść swoje konsekwencje i przyniosło. Najnowszy procesor i9 – i9-11900K jest tak właściwie słabszy, niż poprzedni – i9-10900K. Jest to spowodowane mniejszą ilością rdzeni/wątków względem poprzednika (8/16 w najnowszy vs. 10/20 w starszym). Wszystko przez to, że Intel przez te 6 lat tylko zwiększał wydajność pojedynczego rdzenia i dodawał dodatkowe rdzenie/wątki do swoich procesorów, nie obniżając przy tym litografii. Doprowadziło to do tego, że Intel zapędził się w kozi róg i w przypadku najnowszych procesorów nie był już w stanie utrzymać aż takiej ilości rdzeni/wątków przy jednoczesnym zwiększaniu taktowania, gdyż nieszczęsny i9-11900K by pobierał astronomiczne ilości energii i grzał się niesamowicie. Ba, już pobiera. Najnowszy Ryzen 9 5900X, który posiada 12 rdzeni/24 wątki pobiera 100 watów mniej niż i9-11900K, który posiada „zaledwie” 8 rdzeni i 16 wątków, a jest w wielu przypadkach mniej wydajny. I tak oto historia odwróciła kota ogonem. Gdyby ktoś powiedział 6-7 lat temu, że Intel będzie gonił AMD to nikt by w to nie uwierzył. Dzisiaj to fakt. Uczeń pokonał mistrza. Aktualnie memy „wincyj rdzeniuf” dotyczą bardziej Intel’a aniżeli AMD, tak samo zresztą jak te o „zastępstwie za kaloryfer”.

Reasumując dlaczego AMD przebiło Intel’a i jest aktualnie lepszym wyborem:
– Najnowsze procesory AMD posiadają dwukrotnie niższą litografię (7nm vs. 14nm).
– Znacznie niższa litografia przekłada się na znacznie niższy pobór energii, przy zachowaniu bardzo podobnej wydajności.
– Znacznie niższy pobór energii przekłada się na niższe temperatury.
Dla kogo AMD?

– Dla każdego, kto robi coś więcej na komputerze, niż gra w gry. To świetne procesory do renederingu czy jakichkolwiek innych zastosowań profesjonalnych.
Dla kogo Intel?

– Dla każdego, komu zależy tylko na grach. Intel swoją litografię 14nm żyłuje coraz bardziej i ma ją wręcz opanowaną do perfekcji. Przekłada się to na nieco wydajniejszą wydajność pojedynczego rdzenia, a gry raczej właśnie na tym bazują (oczywiście są wyjątki od tej reguły, ale są one marginalne).

Tabelka poglądowa jeśli chodzi o wydajność w zastosowaniach profesjonalnych (wydajność pokazana w benchmarku Cinebench, ale wyniki przekładają się na wydajność w programach profesjonalnych):

Źródło tabelki: YouTube – TechLipton

Zobacz także:
Bezpieczeństwo IT w firmie – czytaj więcej
Audyt IT – czytaj więcej
Outsourcing IT Warszawa- czytaj więcej

IT 06/04/2021

SSD (Solid-State Drive) to dysk półprzewodnikowy, w którym zapis danych odbywa się na pamięciach typu flash. Rodzaje SSD:
2.5 cala – dysk o wymiarach tożsamych jak dyski HDD „do laptopów”. Występuje w nich takie samo złącze (SATA), dzięki temu dyski te są idealnym rozwiązaniem do starszych sprzętów, które nie posiadają nowoczesnych złączy jak M.2. Ograniczeniem prędkości jest magistrala SATA, która może przenieść dane z maksymalną prędkością 6Gb/s.

M.2 SATA – dysk o całkiem innej budowie, w którym zamiast złącza SATA jest złącze M.2, natomiast cały czas korzysta z interfejsu SATA, przez co takie dyski osiągają takie same prędkości jak standardowe dyski ze złączem SATA. Dysk taki jest znacznie mniejszy, ale można go zainstalować tylko w sprzętach, gdzie występuje złącze M.2. W tym wypadku ograniczeniem również jest magistrala SATA.

M.2 PCI-Express (w skrócie PCI-E) – dysk o analogicznym wyglądzie jak M.2 SATA, ale korzystający z interfejsu PCI-E o szerokości X4, dzięki czemu prędkości dysku są kilkukrotnie większe od takich z interfejsem SATA. Ograniczeniem prędkości w tych dyskach jest magistrala PCI-E, która w najnowszej iteracji 4.0 przy szerokości x4 osiąga nawet 64Gb/s. Trzeba pamiętać, że magistrala PCI-E w komputerze musi być minimalnie o takiej samej iteracji jak dysk, by udało się osiągnąć deklarowane prędkości dysku. Jeśli przykładowo włożymy dysk PCI-E o iteracji 3.0 do złącza, które jest iteracji 2.0 to dysk będzie działać, ale jego prędkości będą obniżone do maksymalnych prędkości złącza (czyli w tym przypadku do 16Gb/s, bo tyle wspiera PCI-E 2.0 o szerokości X4).

! UWAGA !

Dyski M.2 SATA i M.2 PCI-E niekoniecznie muszą działać zamiennie. Trzeba się upewnić co obsługuje złącze M.2 na płycie głównej. Może ono obsługiwać tylko PCI-E, tylko SATA lub też obydwa w zależności jaki dysk włożymy.
W międzyczasie przewijały się też inne złącza jak SATA Express czy mSATA, natomiast nie przyjęły się one i aktualnie ciężko znaleźć dyski SSD z taki złączami.

Klucze dysków M.2


W dyskach M.2 występują klucze tzw. nacięcia na złączu. Występują one w oznaczeniach B i M. Uniemożliwiają włożenie dysku M.2 o przykładowo kluczu B do złącza z kluczem M. O ile kiedyś miało to większe znaczenie, tak teraz wszyscy producenci z reguły stosują klucz M lub B i M, natomiast producenci płyt głównych (czy ogólnie urządzenia wykorzystujące złącze M.2) korzystają zazwyczaj z klucza M.

Najczęstsze awarie w dyskach SSD:


O ile dysk SSD nie jest uszkodzony „od nowości” to istnieje większe prawdopodobieństwo, że padnie kontroler w dysku, niż kości pamięci. Tak właściwie kości pamięci ulegają uszkodzeniu tylko w ekstremalnych sytuacjach np. jeśli zostanie przekroczona wartość TBW dysku, czyli tak naprawdę po zapisaniu nawet kilkuset terabajtów.

Na co trzeba zwrócić uwagę podczas zakupu dysku SSD


Producent – należy zwracać szczególną uwagę na modele, ponieważ każdy producent posiada modele topowe, jak i te podstawowe. Aktualnie najlepszymi producentami dysków SSD jest Samsung i Crucial. Za nimi jest Western Digital, SanDisk (właścicielem jest Western Digital) Kingston (zależy od modelu) i Plextor. Potem jest cała reszta.
Szczególną uwagę trzeba zwrócić na firmę ADATA, która przestała być polecanym producentem po tym jak zaczęli „po cichu” wymieniać kości i kontrolery w topowych dyskach na całkiem inne, zdecydowanie gorsze, nie informując przy tym konsumentów oraz w żaden sposób nie zmieniając nazw czy nawet numerów seryjnych. Podobny zabieg wykonał w 2013 roku Kingston przy dysku V300, gdzie zamienił kości synchroniczne na asynchroniczne, co znacząco pogorszyło wydajność dysków, natomiast jego aktualne dyski SSD (przykładowo KC2000 czy A2000) są godne polecenia.

Wartość TBW – ilość zapisanych terabajtów danych. Po przekroczeniu konkretnej liczby ustalonej przez producenta dysk ma zerwaną gwarancję. Można też dzięki tej wartości określić jak wytrzymały jest dysk. Logicznym jest, że dysk posiadający większą wartość będzie bardziej wytrzymały, niż taki posiadającą mniejszą wartość (należy to porównywać dla dysków o takiej samej lub zbliżonej pojemności).
Długość gwarancji – podobnie jak w przypadku TBW – im dłuższa tym dysk bardziej wytrzymały, a co za tym idzie bardziej wydajny.

Rodzaj interfejsu (w przypadku dysków M.2) – są dyski z interfejsem SATA i PCI-E (dyski wyglądają tak samo, gdyż wszystkie są w formacie M.2). Trzeba sprawdzić jaki typ interfejsu wspiera złącze M.2 na płycie głównej i dopiero wtedy kupować SSD. Aktualnie „standardem” jest, że złącze wspiera tylko PCI-E lub zarówno SATA, jak i PCI-E.

Dlaczego lepiej wybrać dobre i sprawdzone dyski SSD


Głównym problemem przy dyskach SSD jest możliwość wystąpienia awarii z dnia na dzień gdzie, wcześniej nic nie wskazywało na to, że dysk się zepsuje. Przy uruchomieniu komputera dysk będzie martwy. Dlatego właśnie warto wybierać wydajne dyski SSD, gdyż w ich przypadku szansa takiej awarii jest zminimalizowana. W tańszych propozycjach jak Patriot Blast, PNY CS900 czy GoodRam CL100 (notabene często robionych dokładnie tak samo, z takich samych podzespołów) może się zdarzyć, że po miesiącu samoistnie przestaje być wykrywany. Niestety, w przypadku dysków SSD odzyskiwanie danych sprawia wiele trudności i istnieje spora szansa, że dane zostaną utracone (np. przy wymienianiu kontrolera ważne jest, by był to dokładnie taki sam kontroler, gdyż minimalnie inny po wymianie może zacząć zerować dysk, gdy ten zostanie podłączony do komputera).

Typy kości dyskach SSD


SLC:
– 1 bit danych na komórkę
– bardzo wysoka wydajność
– bardzo wysoka wytrzymałość
– bardzo wysoka cena
– nie występują w konsumenckich dyskach SSD

MLC:
– 2 bit danych na komórkę
– wysoka wydajność
– wysoka wytrzymałość
– aktualnie wysoka cena

Dyski z tymi kościami jeszcze występują, ale powoli zaczynają być wypierane przez dyski z kościami TLC).

TLC:
– 3 bity danych na komórkę
– przeciętna/wysoka wydajność (dużo zależy od tego jaki jest model kości)
– przeciętna/wysoka wytrzymałość (jak wyżej – sporo zależy od modelu kości).

Aktualnie najpopularniejsze kości w dyskach. Aktualnie większość dysków produkowanych jest na tych kościach.

QLC:

Kości te są stosunkowo od niedawna na rynku, więc za jakiś czas prawdopodobnie będą optymalizowane i rozwijane. Na ten moment prezentuje się to tak:
– 4 bity danych na komórkę
– niska/przeciętna wydajność
– bardzo niska/niska wytrzymałość

Dysków z kośćmi QLC na rynku jest niewiele, ponieważ jest to dość nowa technologia. Z racji nowości nie zaleca się ich zakupu, ponieważ wiele w nich jeszcze może się zmienić i rozwinąć.

Zobacz także:
Bezpieczeństwo IT w firmie – czytaj więcej
Audyt IT – czytaj więcej
Outsourcing IT Warszawa- czytaj więcej
Audyt bezpieczeństwa IT – czytaj więcej

Bez kategorii 02/04/2021
Szanowni Państwo, w tym wyjątkowym czasie życzymy Państwu przede wszystkim zdrowych, spokojnych i radosnych Świąt Wielkanocnych.
Niech nadchodzący czas wypełni Państwa serca nadzieją i pokojem.
Wesołego Alleluja
życzy Państwu zespół PM Digital