Forum Religia,Polityka,Gospodarka Strona Główna
Linux
Idź do strony Poprzedni  1, 2, 3  Następny
 
Napisz nowy temat   Odpowiedz do tematu    Forum Religia,Polityka,Gospodarka Strona Główna -> Wiedza i Nauka
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 10:06, 08 Maj 2018    Temat postu:

Ubuntu jak się robi etyczną telemetrię
Strona główna Aktualności07.05.2018 15:25
Inżynierowie oglądają płytę główną z depositphotos
eimi
Adam Golański
@eimi
Kto miał zainstalować sobie najnowsze Ubuntu 18.04 LTS, ten już pewnie to zrobił. A teraz wysyła całkiem sporo informacji do firmy Canonical. Niespodzianka? Na pewno nie. Kto śledził ostatnie prace deweloperów Canonicala ten powinien pamiętać, że system znany pod nazwą kodową Bionic Beaver domyślnie włącza telemetrię dla nowych instalacji.

Producent Ubuntu zapowiedział to posunięcie już w lutym. Skonsternowani użytkownicy, pamiętający jeszcze aferę ze przesyłaniem lokalnych wyszukiwań w środowisku Unity na serwer Canonicala (i to bez ich anonimizacji) mogli sądzić, że to kolejne podejście do handlu ich danymi – Amazon na pewno by się połakomił. A jednak nic z tego. Tym razem nowemu Ubuntu zarzucić nic nie można. Wręcz przeciwnie, firma Marka Shuttlewortha mogłaby uczyć ludzi z Microsoftu, jak należy wprowadzać etyczną telemetrię.

REKLAMA

To prawda, podczas samej instalacji nie ma nigdzie możliwości zrezygnowania z telemetrii. Ubuntu Report, narzędzie gromadzące informacje o systemie, startuje zaraz po uruchomieniu. Jednocześnie jednak uruchamiane jest graficzne narzędzie wstępnej konfiguracji systemu Witaj w Ubuntu. Pyta ono w pewnym momencie, czy chcemy pomóc udoskonalić Ubuntu.

Czy pomożesz udoskonalić Ubuntu?
Czy pomożesz udoskonalić Ubuntu?
Pomoc ta polega na wysyłaniu Canonicalowi informacji o sprzęcie, zainstalowanych pakietach i przybliżonej lokalizacji (ustawieniach językowych i czasowych). Domyślnie zaznaczony jest przycisk radio „Tak, wyślij informacje o systemie do Canonical”. By zrezygnować z telemetrii należy przełączyć na „Nie wysyłaj informacji o systemie”.

Możemy też kliknąć przycisk „Pokaż pierwszy raport” i zobaczyć, co wysłane zostanie. Jak widać, to prosty plik JSON, zawierający zrozumiale opisane informacje o sprzęcie. Obok znajduje się też przycisk „Informacja prawna”, który otwiera Firefoksa ze stroną opisującą politykę prywatności Canonicala.

Mały prosty JSON z raportem dla Canonicala
Mały prosty JSON z raportem dla Canonicala
Zaprezentowanie w ten sposób informacji o telemetrii wydaje się lepszym rozwiązaniem, niż pytanie o to w instalatorze Ubiquity, w którym użytkownicy klikają tylko Dalej, dalej, by jak najszybciej zakończyć instalację i jej nudny pokaz slajdów. Tutaj już po uruchomieniu znacznie trudniej ominąć wzmiankę o telemetrii, tym bardziej że program powitalny zaczyna od ciekawych komunikatów: przedstawia ważne nowości w interfejsie Ubuntu 18.04 i pozwala włączyć aktualizacje kernela bez restartów.

wersja Ubuntu
partycje dysku
producent sprzętu
informacje o wyświetlaczu
model komputera
stan autologowania
wersja BIOS
stan automatycznego łatania
procesor główny
środowisko graficzne
procesor graficzny
serwer grafiki
ilość RAM
strefa czasowa
Informacje zbierane za pomocą telemetrii Ubuntu Report
Co Canonical zrobi z tymi wszystkimi zbieranymi danymi? Służyć mają przede wszystkim do poprawienia jakości systemu. Wiedząc na jakim sprzęcie i z jakim oprogramowaniem pracują użytkownicy, deweloperzy i testerzy firmy będą mogli skupić się na tym co najpilniejsze i najpopularniejsze. Canonical nie jest przecież Microsoftem, nie jest w stanie jednocześnie i w równym stopniu zająć się wszystkim.

Telemetria w Windowsie to zupełnie inna bajka
Telemetria w Windowsie to zupełnie inna bajka
A jak to robi Microsoft? Użytkownicy Windowsa 10 mogą skorzystać już z oficjalnej Przeglądarki danych diagnostycznych, którą doinstalować trzeba z Microsoft Store, a następnie włączyć w Ustawieniach, w panelu Prywatność > Diagnostyka i opinie. Tu też jak widać wysyłane są pliki JSON… ale co dokładnie jest w nich zawarte, tego chyba nikt poza specjalistami z Redmond nie wie. Co więcej, widać wyraźnie, że nie można całkiem wyłączyć tej tajemniczej telemetrii: w najlepszym razie możemy ograniczyć jej intensywność, przełączając opcję diagnostyki z Pełnej na Podstawową.

..

Poza tym warto wesprzec Ubuntu. Facebook nas sledzi Google Microsft itd... a ja bede zalowal danych tym co robia darmowy otwarty system?


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 7:55, 12 Maj 2018    Temat postu:

Siostro, zastrzyk, czyli Linux w urządzeniach Google i Microsoftu
autor Salvadhor • 10 maja, 2018 • 4 komentarze

00


W sumie. Czy kogoś to dziwi? Osoby będące w temacie zapewne śledzą od jakiegoś czasu doniesienia o walecznym trudzie jaki zadają sobie wiodące korporacje, aby zaoferować ludziom Linuksa jako przykrywkę dla swoich produktów. Bo jak inaczej określić Chromebooka dla którego Google przygotowało możliwość uruchamiania aplikacji Linuksowych (na Linuksie, wykombinuje sobie to), oraz Microsoft który pozwoli na skorzystanie z Ubuntu na… Windowsie 10 odpalonym na tajemniczym ACPC.


Linux w Linuksie na Chromebooku
Jaki Chromebook jest, każdy widzi. Przynajmniej konsument mieszkający w USA, gdyż na Starym Kontynencie ten sprzęt to egzotyka. Niewiele osób jednak wie, że pod spodem tkwi Linux – tak bardzo znienawidzony przez masowych konsumentów. To jednak nie stoi na przeszkodzie, aby Chromebooki odnosiły sukces sprzedaży w USA. Co więcej, sukces jest tak gwałtowny i odczuwalny, że większość serwisów zliczających ruch internetowy stworzyło oddzielną kategorię dla tego Linuksa, który udaje co innego. Ale teraz sprawy się komplikują, bowiem Google oficjalnie ogłosiło, że kolejne wersje systemu dla tych urządzeń będą w stanie uruchomić… Programy linuksowe. Dzięki temu sprzęt ma pozbyć się etykiety zabawki a my otrzymamy nowe możliwości. Co prawda aplikacje będą uruchamiane w wirtualnej maszynie. Ale takiej stworzonej specjalnie na potrzeby Chromebooka, kompletnie zintegrowanej z ChromeOS. Wspomniane programy mają uruchamiać się w oka mgnieniu, a instalować je będziemy mogli za pomocą komendy… Fanfary… apt-get.
Posiadacze Pixelbooków mogą już zacierać dłonie, a użytkownicy starszych konstrukcji doczekają się zapewne aktualizacji w niedługim czasie. Tak jak i doczekali się obsługi aplikacji z Androida, itp.

No dobrze, ale o ile w przypadku Google od czasu do czasu przenikają jakieś doniesienia, że ten Linux plącze się na desktopie ich deweloperów, Androidzie i ChromeOS, o tyle zapał jakim zapałał do Linuksa Microsoft może nieco zastanawiać. No dobrze, Azure gdzie połowa maszyn wirtualnych to Linux. No dobrze, integracja w Windows 10 Basha i innych. Kto o tym nie słyszał. Ale Linux na sprzęcie dedykowanym Windowsowi? Always Connected PC to właśnie takie coś. Coś napędzane procesorami Qualcomm Snapdragon 835 i działające jedynie pod Windowsem 10 skrojonym na potrzeby architektury ARM. Dacie wiarę? Platforma na której do tej pory nie udało się uruchomić Linuksa – przynajmniej na urządzeniach dedykowanych ACPC – Asus NovaGo, HP Envy x2, Lenovo Miix 630. A jest o czym marzyć. Urządzenia wytrzymujące do 20 godzin na baterii działają na wyobraźnie. Szczególnie mocniej, gdy poczyta się zapowiedzi Microsoftu, że stworzą rozwiązanie pozwalające na uruchomienie Ubuntu (tak, Ubuntu) na Windowsie napędzającym taką maszynę.

Na konwencie Microsoft Build 2018 zaprezentowane zostało właśnie rzeczone Ubuntu uruchomione na ARM PC. Niestety jako aplikacja ze sklepu Microsoft Store. Zatem na nic nasze sny o natywnie wolnym systemie na ACPC. Co więcej, to rozwiązanie daje nam dostęp jedynie do terminalu. Jednak jakich można epitetów użyć, by określić ten sukces, nawet jeśli odbywa się to pod przykrywką świadomych działań Microsoftu?

Powyższe doniesienia prawdziwych twardzieli raczej nie zauroczą. Każdy, kto potrafi samodzielnie zainstalować lub używać zainstalowanego Linuksa nie zatęskni do protez oferowanych przez gigantów. Najbliżej ideału jest jednak Google. Każdy program, czy to graficzny czy tekstowy na Chromebooku. To już coś.

...

Nowi linuxowcy! Absurd. Jak cos odnosi sukces to corpo chcą od razu sie pod to podczepic. Dla kasy oczywiscie.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 17:06, 12 Maj 2018    Temat postu:

Postrach cenzorów już w stabilnej wersji: tego komunikatora nie ma jak blokować
Strona główna Aktualności11.05.2018 14:24

eimi
Adam Golański
@eimi
Z jednej strony wskutek starań władz państwowych coraz trudniej o poufność i swobodę anonimowej komunikacji w Sieci, z drugiej powstają coraz lepsze narzędzia, które taką komunikację mimo wszystko umożliwiają. Należy do nich Briar, opensource’owy komunikator, który nie potrzebuje centralnego serwera, i który synchronizuje wiadomości przez sieć Tor, a gdy nie ma dostępu do Internetu, to wykorzysta sieć lokalną, a nawet połączenia Bluetooth.

Briara po raz pierwszy zobaczyliśmy w wersji beta niespełna rok temu. Udostępniony nie tylko w Google Play, ale też w niezależnym sklepie z wolnymi aplikacjami F-Droid, obiecywał najwyższy poziom prywatności i odporność na wszelkie próby cenzury. Dowodem na jego wartość był raport badaczy z firmy Cure53, którzy choć znaleźli w programie trochę niedociągnięć, to jednak uznali go za dobrze radzący sobie w kwestiach prywatności i bezpieczeństwa.

REKLAMA

Z pracami nad Briarem nie spieszono się bardziej niż trzeba. Stwierdzono, że pierwsza stabilna wersja komunikatora pojawi się wtedy, kiedy będzie gotowa. Gotowość tę osiągnięto po 10 miesiącach prac, podczas których usuwano jedynie usterki, nie wprowadzając do aplikacji niczego nowego, a jedynie zbierając opinie użytkowników.

Uproszczony schemat architektury Briara
Uproszczony schemat architektury Briara
Wydana w tym tygodniu stabilna wersja nie zawiera więc nic więcej w stosunku do tego, o czym pisaliśmy w momencie premiery wersji beta. Wciąż naszych rozmówców możemy dodać do listy kontaktowej jedynie poprzez zeskanowanie ich unikatowych kodów QR – wymaga to więc nawiązania wpierw realnego kontaktu. Rozwiązano za to problem nadmiernego zużycia energii przez komunikator, obecnie nie powinien on już tak bardzo wpływać na czas pracy smartfonu.

Od tego wydania rozpoczyna się rozwój nowych funkcjonalności dla Briara. A będzie ich trochę. Pojawić się ma możliwość zdalnego dodawania kontaktów bez ich wcześniejszego spotykania i wysyłania obrazków jako załączników wiadomości. Dalej ulepszana ma być energooszczędność aplikacji. Rozpoczęły się też prace, które umożliwią wysyłanie wiadomości użytkownikom będącym offline – spore wyzwanie, biorąc pod uwagę brak centralnego serwera.

W tym roku położone zostaną podstawy pod zbudowanie klienta desktopowego. Wyczekiwany przez użytkowników klient na iPhone’a raczej jednak się nie pojawi, ze względu na ograniczenia systemu iOS: Apple nie pozwala na długotrwałe utrzymywanie w tle połączeń sieciowych, niezbędnych dla komunikacji P2P.

Briar znalazł się w naszej bazie aplikacji na Androida, od tej pory już w wersji stabilnej. Polecamy zapoznać się z tym ciekawym sposobem na ultraprywatną komunikację.

...

I to jest to czego nam trzeba!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 20:18, 19 Maj 2018    Temat postu:

Niech żyje FreeOffice 2018
autor Salvadhor • 18 maja, 2018 • 9 komentarzy

00


Czy w dzisiejszych czasach powinniśmy kłopotać się takimi niuansami jak edytor tekstu i jego format pliku tekstowego? Niestety jednak musimy. Wiodące rozwiązanie pod postacią Microsoft Office na tyle mocno odcisnęło swe piętno w subkulturach i życiu codziennym, że otwieranie popularnych plików .doc i .docx to dla niektórych obowiązkowy rytuał. I nawet jeżeli nie możemy uruchomić wspomnianego pakietu na naszym systemie, to pliki niekiedy musimy otworzyć i zapisać w tym formacie. Rozwiązań jest oczywiście wiele, choćby wolny LibreOffice. Ale o dziwo większą zgodność ze wspomnianymi formatami deklaruje SoftMaker FreeOffice 2018.


FreeOffice 2018 z testowym .docx
A cóż to takiego? Producent komercyjnego pakietu biurowego SoftMaker Software GmbH jest ze swoim produktem na rynku już od… 1994 roku. Dlaczego tak mało o nim słyszeliśmy? Cóż, z pewnością wpływ na to miały kwestie jakościowe, dostępność, cena i inne parametry dzięki którym to właśnie teraz rozmawiamy o Microsoft Office jako rozwiązaniu wiodącym. Ale najnowsze wydanie SoftMaker Office 2018 i jego darmowej wersji FreeOffice 2018 redefiniuje scenę pakietów biurowych.
Porównanie produktu komercyjnego i darmowego jest oczywiste. FreeOffice 2018 jest w większości pozbawiony zaawansowanych funkcji znanych z wersji płatnej. Niemniej nadal posiada ich tyle, że przeciętny użytkownik nie wykorzysta nawet 50% z nich. Ale to co czyni z niego ciekawą alternatywę dla użytkowników Linuksa to fakt, że program jest dostępny w 32 i 64bitowych paczkach (dla Windowsa tylko 32bit) oraz zapewnia obecnie chyba najlepszą zgodność z formatem .docx. Dodajmy do tego atrakcyjny (kwestia gustu lub przyzwyczajenia) interfejs i pewien z początku niezauważalny fakt:

PID UŻYTK. PR NI WIRT REZ WSP S %CPU %PAM CZAS+ KOMENDA
2618 test 20 0 1346,1m 225,0m 122,0m S 0,0 2,8 0:11.05 soffice.bin
2121 test 20 0 483,0m 85,6m 50,7m S 2,0 1,1 0:12.12 textmaker

LibreOffice 6.0.x i ten sam docx

Otwarcie tego samego dokumentu w LibreOffice 6.0.x i FreeOffice 2018 obnaża nie tylko różnice w zapotrzebowaniu na pamięć RAM (225MB vs 85MB na korzyść FreeOffice 2018). Dokument wygląda po prostu inaczej i według podglądu w PDF bliżej oryginału jest FreeOffice. O ile zapotrzebowanie na RAM być wynikiem „wycięcia” wielu funkcji z tego edytora, to poprawna interpretacja docx jest już po jego stronie bez względu na inne parametry.
Ten pakiet to oczywiście nie tylko wspomniany edytor. PlanMaker i Presentations (obsługa XSLX i PPTX) to arkusz kalkulacyjny i edytor prezentacji które potwierdzają rzetelność rozwiązań SoftMaker Software. Każdy ze zbiorem funkcji i możliwości wystarczających do zaawansowanych prac. Od tej pory użytkownik ma realną szansę na poprawne otwieranie przesyłanych mu dokumentów (w wiodących formatach).


A tak ma wyglądać testowy docx

Co więcej, pakiet można legalnie używać nawet w firmie. Producent po wypełnieniu formularza „pobraniowego” wyśle nam na podany adres email klucz aktywacyjny. Stosowne paczki można pobrać spod tego adresu.
Wobec powyższej optymistycznej propagandy należy pamiętać o dwóch szczegółach. Pakiet jest oprogramowaniem zamkniętym. I na dzień dzisiejszy nie doczekał się polskiej wersji językowej.

...

Czyli kolejny sukces. Wspaniale! Moze ktos spolszczy przynajmniej glowne funkcje. Szkoda nie miec! A dla malych firm gigantyczna obnizka kosztow!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 10:19, 20 Maj 2018    Temat postu:

Warto czekać na nowe Ubuntu. Znamy już listę najważniejszych nowości
Strona główna Aktualności19.05.2018 15:31
fot. Ubuntu na Facebooku
b.munro
Maciej Olanicki
@b.munro
Ostatnie wydania Ubuntu nie mogą być powodem do entuzjazmu użytkowników pulpitowej odsłony tej dystrybucji. Wiemy już, że powrót do pełnego GNOME Shell podyktowany był wyłącznie optymalizacją finansową, gdyż rezultat migracji można najwyżej ocenić najwyżej na dostateczny. Niewiele pomógł tutaj dock mający być protezą tego z Unity, zaś wydanie 18.04 przyniosło niewiele nowości, za to sporo błędów. Canonical w swoim podejściu do rozwoju systemu operacyjnego zaczął (a raczej musiał zacząć) małpować Microsoft – ze względów finansowych priorytetem jest oprogramowanie serwerowe. Perły rzuca się przed udziałowców, nie przed…


A systemy pulpitowe? Jakieś są, ale kto by się nimi przejmować. Wszak bardziej wymagający użytkownik i tak sięgnie po komputery z macOS-em, a mniej wymagający jest bezkrytyczny. Użytkownicy przyzwyczajeni do dystrybucji Linuksa i tak są tutaj w komfortowej sytuacji – nie brakuje przecież systemów, które chętnie przejmą po Ubuntu pulpitową schedę. Ale czy na pewno Canonical powiedział już ostatnie słowo i tempo rozwoju dystrybucji w kolejnych miesiącach będzie tak zachowawcze, jak ma to miejsce od jesieni? Według opublikowanego przez korporację raportu, stanowiącego de facto zapowiedź nowości w Ubuntu 18.10 – nie.

Pierwszym, co nasuwa się po lekturze najnowszego wpisu Willa Cooke’a, dyrektora ds. dystrybucji pulpitowej w Canonical, jest wniosek, że Ubuntu 18.04 to wydanie, w którym wiele zapowiadanych wcześniej zmian nie zdążyło się pojawić. Między wersami sprawne oko dojrzy także komentarz do dużej liczby błędów, jakie pojawiły się w wydaniu, bądź co bądź, o wydłużonym okresie wsparcia. Cook zaczyna bowiem wpis o nowościach Ubuntu 18.10 zapowiedzią Ubuntu 18.04.1. Pojawi się w nim między innymi nowość w ekranie logowania – będzie on umożliwiał wykorzystanie wbudowanych w laptopy czytników papilarnych do odblokowywania systemu. Ponadto w Ustawieniach Gnome’a skonfigurować będzie można gniazda Thunderbolt, zaś paczki snap obsługiwać będą serie interfejsów D-Bus, zwane XDG Portals, które umożliwiają komunikację między procesami.


A co czeka nas jesienią? Nacisk, co chyba nikogo nie dziwi, położono na paczki snap. Optymalizacja Snapcrafta poskutkować ma odczuwalnym skróceniem czasu potrzebnego na uruchomienie programów snap. Ponadto zmiany nastąpią tutaj także dla kluczowych pakietów – Canonical chce, by Chromium w Ubuntu już od wydania 18.10 dostępny był tylko jako snap właśnie. Zmiana ta ma mieć także rezultat wsteczny, gdyż w starszych wydaniach o wydłużonym wsparciu, paczki DEB z Chromium przestaną być dostępne. Decyzja ta nie jest raczej zaskoczeniem – kluczowy pakiet musi być w tej chwili budowany aż dla czterech wydań Ubuntu (16.04-18.10), co pożera mnóstwo zasobów Canonicala.

GS Connect w powłoce GNOME Shell (źródło: Andy Holmes, GitHub)
Nowości pojawią się także w komunikacji pomiędzy urządzeniami. Domyślnie zainstalowany będzie klient DLNA, który umożliwi wymianę danych przez WI-Fi przede wszystkim z telewizorami. W ten sposób bez konieczności instalacji dodatkowych pakietów pecet z Ubuntu stanowić będzie mógł dla telewizora w tej samej sieci serwer multimediów. Znacznie ciekawiej prezentuje się jednak opisywana już przez nas wcześniej pełna integracja danych i funkcji z Androidem. Już jesienią będziemy zatem mogli używać smartfonów z systemem Google do sterowania odtwarzaniem czy wykorzystać ekran dotykowy jako gładzik. Będzie to możliwe dzięki domyślnej dostępności GSConnect, czyli wersji KDE Connect dostosowanej do środowiska GNOME. Trzeba przyznać, że ta nowość zapowiada się ekscytująco, szczególnie po śmierci projektu Ubuntu Convergance.

Temat communitheme będzie w Ubuntu 18.10 domyślnym.
W ostatnim wydaniu Ubuntu pojawiłą się opcja „minimalnej instalacji” – po jej wybraniu użytkownik otrzymywał system wyekwipowany w jedynie najważniejsze narzędzia. Wkrótce (lecz Cooke nie deklaruje, że już jesienią) mają się pojawić znacznie dalej idące zmiany w instalatorze. Canonical chce przenieść swoje doświadczenia z wydania serwerowego i w przyszłości zaproponować wykorzystanie osiągnięć instalatora curtin, doświadczeń zebranych podczas dostarczania MAAS (Metal-As-A-Service, czyli wykorzystywania już istniejącej fizycznej infrastruktury serwerowej do uruchamiania chmury) oraz… frameworka Electron, niestety. Instalator Ubuntu już dziś jest ociężały, a plany zarysowane przez Shuttlewortha nie dają wiele nadziei na zmianę tego stanu rzeczy.

W przeciwieństwie do Ubuntu 18.04, jesienią nie zabraknie czegoś „dla oka”. Otrzymamy bowiem całkowicie nowy temat GTK. Miał on się pojawić już w kwietniu, jednak rozwijana przede wszystkim przez społeczność skórka miała być na to zbyt niedopracowana. Odświeżenie wyglądu Ubuntu ma przebiegać kompleksowo: obok nowych obramowań okien, pojawi się także nowy zestaw ikon, a zapewne i dźwięków. Społecznościowy temat GTK, który już wkrótce stanie się dla Ubuntu domyślny, testować można już dzisiaj. Społeczność udostępnia go jako paczkę snap., wystarczy w terminalu wydać poniższe polecenie.

sudo snap install communitheme

W Ubuntu 18.04 można alternatywnie wykorzystać PPA:

sudo add-apt-repository ppa:communitheme/ppa
sudo apt update
sudo apt install ubuntu-communitheme-session

Jedną z ciekawszych nowości, którą nazwać można metasystemową, zostawiliśmy na koniec. W ostatnim czasie Adam pisał o telemetrii w Ubuntu, podkreślając, że przykład z niej może brać Microsoft. Przejrzystość raportów i wąski zakres zbieranych danych to z całą pewnością złoty środek pomiędzy stosowaniem telemetrii a byciem w porządku wobec swoich użytkowników. Teraz Will Cooke zapowiedział, że zanonimizowane dane zebrane o użytkownikach będą… ogólnodostępne! Canonical ma zamiar uruchomić witrynę, która stanie się krynicą wiedzy o użytkownikach Ubuntu, co będzie przecież nie do przecenienia dla analityków i deweloperów. Oczywiście na telemetrię można w Ubuntu nie wyrazić zgody.

Ubuntu 18.10 będzie nosiło nazwę Cosmic Cuttlefish (Kosmiczna Mąta). Zapowiada się na ciekawą propozycję, przede wszystkim ze względu na implementację bogatych możliwości integracji z Androidem dzięki gnome’owemu odpowiednikowi KDE Connect, czy optymalizacji sekwencji startowych aplikacji dystrybuowanych via snap. Esteci być może docenią odświeżony temat GTK. Zanosi się także na kilka kontrowersyjnych zmian (Electron w instalatorze), które jednak pojawią się dopiero w przyszłorocznych wydaniach. Jesień dla użytkowników Ubuntu rysuje się zatem dość optymistycznie.

...

Oczywiscie warto. Jest to oczywiscie trudna praca i nie wszystko sie udaje. Trzeba dazyc do jakiejs stabilnej wersji ktora wreszcie bedzie strzalem w 10 i zostanie zapamietana na wiele lat.



Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 21:06, 22 Maj 2018    Temat postu:

Duch przeszłości: MCC Interim Linux
Reklama na Linuxiarze.pl


Przeszukując sieć w celu przygotowania do ArchiveOS kolejnej archiwalnej i często już zapomnianej dystrybucji Linux lub innego systemu operacyjnego, natrafiłem na rzadki unikat, warty wspomnienia, choćby w kilku zdaniach.

MCC Interim Linux to dystrybucja Linuksa wydana po raz pierwszy w lutym 1992 roku przez Owena Le Blanc z Manchester Computing Center (MCC), które jest częścią Uniwersytetu w Manchesterze. Była to pierwsza dystrybucja Linuksa stworzona dla użytkowników komputerów, którzy nie byli ekspertami od Uniksa i zawierała instalator oparty na menu, który instalował zarówno jądro, jak i zestaw narzędzi dla użytkownika końcowego oraz narzędzia programistyczne.

MCC po raz pierwszy został udostępniony przez anonimowy FTP w listopadzie 1991r. Irytacja Le Blanka z jego wcześniejszymi eksperymentami z Linuksem, np.: brak działającego fdisk-a, potrzeba korzystania z wielu repozytoriów FTP w celu nabycia całego niezbędnego oprogramowania i problemy z wersją bibliotek zainspirowały go do stworzenie własnej dystrybucji.

Le Blanc twierdził, że odnosił się do dystrybucji jako „interim (tymczasowej)”, ponieważ „… nie są one zamierzone jako ostateczne lub oficjalne, są małe, harmonijne i umiarkowanie testowane. Nie odpowiadają gustowi każdego użytkownika, ale powinny zapewnić stabilną bazę, do której można dodać inne oprogramowanie.”

Trzeba nadmienić, iż w tamtych czasach pojęcie dystrybucji Linux nie było jeszcze znane (rozpowszechnione), a instalację jądra Linux, kompilatorów, bibliotek i dopiero w następnej kolejności aplikacji użytkowych wykonywano ręcznie, pobierając poszczególne elementy systemu z róznych źródeł – od ich twórców (deweloperów).

Jeszcze przed pierwszym wydaniem MCC, najbliższym przybliżeniem do dystrybucji Linuksa były obrazy dyskietek HJ Lu’a o nazwie „Boot-root”. Były to dwie dyskietki 5¼ „zawierające jądro Linuxa i minimum narzędzi wymaganych do uruchomienia”. Tak więc były to minimalne narzędzia, które pozwalały na ładowanie z twardego dysku wymagającego edycji głównego rekordu rozruchowego za pomocą edytora szesnastkowego.

Pierwsza wersja systemu MCC Interim Linux została oparta o jądro Linux 0.12 i wykorzystywała kod pamięci RAM Theodore Ts’o do skopiowania małego obrazu głównego do pamięci, uwalniając stację dyskietek dla dodatkowych dyskietek narzędziowych.

Le Blanc stwierdził także, że jego dystrybucje były „nieoficjalnymi eksperymentami”, których celami było:
– dostarczenie prostej procedury instalacji
– dostarczenie pełniejszej procedury instalacji
– dostarczenie usługi tworzenia kopii zapasowych/odzyskiwania
– tworzenie kopii zapasowej swojego obecnego systemu
– możliwość kompilacji, łączenia i testowania każdego pliku binarnego z bieżącą wersją jądra, gcc i bibliotek
– dostarczenie stabilnego systemu bazowego, który można zainstalować w krótkim czasie i do którego można dodać inne oprogramowanie przy stosunkowo niewielkim nakładzie pracy.

W rzeczy samej, nigdy nie podjęto próby rozpowszechnienia go za pomocą szerokiej gamy oprogramowania, a nawet systemu okien X386.

Wkrótce po pierwszym wydaniu MCC pojawiły się inne dystrybucje, takie jak TAMU, stworzone przez ludzi z Texas A&M University, MJ Martina Juniusa, Softlanding Linux System i mały system bazowy H J Lu dla małych przedsiębiorstw. Te z kolei zostały szybko zastąpione przez Debiana i Slackware, najstarsze i wciąż aktywne dystrybucje.

Dystrybucja MCC Interim 1.0 wykazała, że Debian był „pięciokrotnie większy niż MCC i dość obszerny”, a ostatnio wydana wersja MCC 2.0+ z 4 listopada 1996 roku zachęciła użytkowników do przejścia na Debiana, zapewniając wsparcie związane z migracją.

Wisienką na torcie jest fakt, iż obrazy instalacyjne ostatniego wydania MCC 2.0+ są wciąż dostępne i można je pobrać, np. z naszego ArchiveOS: MCC Interim.

Instrukcja instalacji MCC opisana przez Owena Le Blanc (tłumaczenie własne z języka angielskiego):

Obrazy dysków, które mogą być potrzebne do zainstalowania MCC Interim Linux. Instalacja wymaga dysku (3) i dysku (1) lub dysku (2). Instalacje wymagające sterowników SCSI i sterowników napędów CD-ROM innych niż IDE/SCSI/ATAPI również wymagają dysku (4). Uruchom komputer z odpowiedniego dysku rozruchowego i postępuj zgodnie z instrukcjami.
(1) boot.1200.gz: Ten plik tworzy dyskietkę startową 5,25 cala. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw.
(2) boot.1440.gz: Ten plik tworzy 3,5-calową dyskietkę startową. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw.
(3) root.gz: Ten plik powoduje, że dyskietka główna jest wymagana we wszystkich instalacjach. Istnieją dwa sposoby korzystania z tego pliku:
– (a) Skopiuj go na dyskietkę w trybie surowym bez obrzucania. Jest to normalny sposób korzystania z niego. Zalety: jest szybszy w użyciu. Wady: nie zadziała, jeśli masz 4 Mb lub mniej pamięci; nie można go łatwo zmienić.
– (b) Rozpakuj i skopiuj go na dyskietkę w trybie raw. Zrób to tylko wtedy, gdy musisz zmienić dysk lub zainstalować go w systemie z 4 MB pamięci. Nie będzie działać na dyskach 5,25 cala. Zalety: łatwiej jest zmienić dysk; działa na maszynie 4 Mb. Wady: działa znacznie wolniej.
(4) scsi-cd.gz: Ten plik tworzy dysk sterownika scsi-cd. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw. Nie potrzebujesz tego dysku, chyba że potrzebujesz sterownika dysku SCSI lub sterownika napędu CD-ROM innego niż IDE/SCSI/ATAPI.

...

Faktycznie prehistoria.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 20:00, 24 Maj 2018    Temat postu:

Superlekka odmiana Ubuntu zrywa z tradycją, wprowadza nowoczesny pulpit
Strona główna Aktualności22.05.2018 14:33

eimi
Adam Golański
@eimi
Nie tylko na Ubuntu 18.10 warto będzie czekać. Rozpoczął się też przecież cykl rozwojowy dla pozostałych jesiennych odmian smakowych systemu Canonicala, a między nimi znanego z lekkości Lubuntu. To właśnie dla tej dystrybucji wydanie 18.10 będzie rewolucją. Bez zmiany nazwy zmieniony zostaje cały pulpit, przynosząc użytkownikom nawet starszych komputerów środowisko o skromnych wymogach co do pamięci, a responsywne niczym Windows 2000.

Lubuntu od swojego powstania wykorzystywało środowisko graficzne LXDE. Zbudowane na bazie biblioteki GTK+ 2, wyróżniało się bardzo małym zużyciem pamięci i energii – potrzebowało o połowę mniej RAM niż np. Unity w normalnym Ubuntu. W 2013 roku główny opiekun LXDE Hong Jen Yee poczuł się jednak rozczarowany kierunkiem rozwoju biblioteki GTK+ 3, w szczególności jej stale rosnącym apetytem na pamięć. To co dla deweloperów GNOME 3 było nieodzowne, dla niego okazało się szkodliwe. Dlatego zrobił śmiały krok i zaczął eksperymentować z biblioteką Qt.

Wynik eksperymentu był ciekawy. Udało się przepisać kluczowe komponenty LXDE na Qt. Wtedy to z chińskim deweloperem skontaktowali się ludzie rozwijający swoje własne lekkie środowisko graficzne Razor-qt, z propozycją bardzo nietypową jak na linuksowy świat. Skoro nasze cele są tak podobne, połączmy nasze siły – napisali. Szybko zdołano ustalić warunki współpracy, już w lipcu 2013 roku LXDE-Qt został połączony z Razor-qt w jeden projekt LXQt. Zarazem jednak deweloperzy LXDE zapowiedzieli, że będą wciąż rozwijać wersję środowiska bazującą na bibliotece Gtk+ 2.

Minimalistyczny pulpit Lubuntu 18.10 na starcie
To jednak nie ma żadnej przyszłości: stara wersja bibliotek traci wsparcie, z czasem będzie wycofywana. Sądząc po aktywności deweloperów LXDE, praktycznie nic się tam już nie dzieje. Z kolei LXQt rozwija się bardzo dynamicznie: wczoraj wydano nową wersję środowiska oznaczoną jako 0.13. Niski numer niech nikogo nie zwiedzie, to nie jest wersja alfa – po prostu zadeklarowano, że LXQt 1.0 musi obsługiwać w pełni serwer grafiki Wayland. Za stabilne uznawane są wszystkie wydania od 0.11.

Lubuntu było najpopularniejszą z lekkich dystrybucji, które domyślnie wykorzystywały pulpit LXDE. Deweloperzy Lubuntu zdawali sobie jednak sprawę z tego, że nie ma to żadnej przyszłości. Na początku maja główny menedżer projektu Simon Quigley ogłosił, że czas posłać LXDE do lamusa. Lubuntu 18.10 będzie domyślnie oferowane z pulpitem LXQt. To ogromna zmiana, wiążąca się ze zmianą dziesiątków komponentów systemowych i domyślnych aplikacji.

Obietnicę właśnie zrealizowano w pierwszym deweloperskim wydaniu tej wersji, przygotowanym dla 32- i 64-bitowych architektur x86. Pobraliśmy ją do testów, zainstalowaliśmy (ciekawostka, wykorzystywany jest niezależny instalator Calamares, a nie instalator ubiquity z Ubuntu) i musimy przyznać, że jesteśmy pod wrażeniem. Widać pozostałości starego środowiska, pewne niespójności z konfiguracją, ale ogólnie jest to system, który już teraz można uruchomić i po prostu z nim pracować.

Lubuntu 18.10, widoczna m.in. przeglądarka Falkon i menedżer plików PCManFM
Widać, że inspirowano się KDE, włącznie z domyślnym motywem Breeze, ale niech nikogo to nie zmyli: LXQt nie ładuje bibliotek KDE, działa też odczuwalnie szybciej na słabym sprzęcie niż Plazma. Interfejs jest zrozumiały dla każdego, kto kiedykolwiek pracował z Windowsem 95 i późniejszymi – menu Start, pasek zadań, zasobnik systemowy, żadnych fanaberii. Do tego oczywiście cała biblioteka oprogramowania Ubuntu.

Właściwie to tego oprogramowania jest za dużo, jak na lekką dystrybucję. Można mieć nadzieję, że do finalnego wydania zostanie ono usunięte. Obecnie domyślną przeglądarką jest Falkon (znany niegdyś jako Qupzilla), menedżerem plików PCManFM, klientem torrentów Qtransmission, odtwarzaczem wideo SMPlayer. Nie wiadomo po co jednak preinstalowany jest Thunderbird, edytor dźwięku Audacious czy kombajn do e-booków Calibre.

Nie wiadomo jeszcze, czy Lubuntu uniezależni się od tego, co w Kubuntu. Niektóre rzeczy zostały zapożyczone z Plazmy: menedżer partycji, menedżery pakietów Muon i Plasma Discover, menedżer archiwów Ark, a nawet kalkulator KCalc. Przydałoby się poszukać albo stworzyć lżejsze odpowiedniki. Warto jednak pamiętać, że już od wydania Lubuntu 18.04 zwiększono minimalną ilość pamięci do 1 GB. Takie czasy. Samo LXQt w Lubuntu 18.10 po uruchomieniu całego pulpitu zajmuje około 290 MB – to nieco więcej, niż LXDE w Lubuntu 18.04, które zajmowało około 220 MB. Oczywiście nie oznacza to, że Qt potrzebuje więcej pamięci, po prostu taka jest niezoptymalizowana jeszcze konfiguracja pulpitu i często zbytecznie załadowanych komponentów.

Aktualną wersję obrazu instalacyjnego ISO Lubuntu 18.10 Cosmic Cuttlefish możecie znaleźć tutaj. Jeśli coś nie będzie działało, to nie miejcie pretensji do nikogo, do październikowego finalnego wydania zostało jeszcze dużo czasu.

...

Trzeba jeszcze dopracowac. Istotnie im oszczedniej tym lepiej. Bedzie chodzilo plynniej.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 12:11, 05 Cze 2018    Temat postu:

Linuksa 4.17 otrzymaliśmy zgodnie z terminem, po 63 dniach prac deweloperów. Niespodziewanie zmieniła się nazwa kodowa kernela, to już nie „Fearless Coyote”, lecz „Merciless Moray”. Spodziewanie za to Linus Torvalds nie zmienił wiodącego numerka wersji – na Linuksa 5.0 jeszcze troszkę poczekamy, mimo że warunek zmiany numeracji został spełniony: liczba obiektów w repozytorium kodu źródłowego przekroczyła właśnie sześć milionów. A co innowacyjnego w najważniejszym z kerneli tej planety? Zapraszamy do przeglądu nowości, jakie przynosi Linux 4.17.

Koniec sennych koszmarów
Nowa wersja kernela rozwiązuje problem z dziwnym zachowaniem rdzeni w procesorach Intela, które w stanie uśpienia nagle doświadczały nieuzasadnionych niczym wybudzeń. Odkryli to informatycy z Uniwersytetu Technicznego w Dreźnie, przypisując problem interakcjom między procesami działającymi w tle i zarządcą jałowego biegu. Doprowadziły one do błędnych przewidywań czasu usypiania rdzeni w trakcie wysokiego zużycia energii. Jeśli następująca po aktywności faza wybudzenia trwała dłużej, np. do 10 sekund, nie było jak skorygować decyzji w tym czasie.

image
Najlepszą strategią zaradzenia problemowi okazało się wprowadzenie swoistego „budzika”, który jest w stanie poprawić złą decyzję co do stanu uśpienia w krótkim czasie. Przykładowa implementacja została oddana linuksowej społeczności, a następnie trafiła do podsystemu zarządzania jałowym biegiem. Efekt jest taki, że system śpi teraz znacznie efektywniej, zmniejszając zużycie energii o około 10%. Co więcej, aplikacje o skróconych cyklach uśpienia korzystają z mniejszych opóźnień i co za tym idzie, wyższej wydajności.

Co ciekawe, ta zmiana ma też wpływ na procesory AMD – do tej pory usypiano je wywołaniem, które wpędzało w niezbyt głęboką drzemkę. Teraz kernel potrafi przełączyć procesory Ryzen i Epyc w znacznie głębszy stan uśpienia.

Lepsze sterowanie ładowaniem baterii
Wiele ciekawych rzeczy stało się możliwych w kwestii kontroli zasilania. Można m.in. zdefiniować poziomy naładowania baterii, od których firmware zacznie i przestanie je ładować. Takimi funkcjami dysponują niektóre notebooki, wykorzystując je do wydłużenia czasu życia baterii. Wcześniej jednak można było to ustawić tylko z poziomu UEFI/BIOS-u. Teraz na kompatybilnym sprzęcie (m.in. Thinkpadach) będzie można ustawić to z poziomu systemu operacyjnego.

Chronione treści w grafice Intela
Powszechnie dziś wykorzystywany do ochrony treści mechanizm High-bandwith Digital Content Protection (HDCP) uniemożliwia przesyłanie wideo wysokiej rozdzielczości w formie, która pozwalałaby na łatwe tworzenie ich kopii. Osoby zainteresowane oglądaniem chronionych przez DRM treści wideo nie miały łatwo na Linuksie. Jako że nie był on wspierany przez intelowe sterowniki, nie można było na Linuksie takich treści oglądać np. na zewnętrznym wyświetlaczu.

Teraz dzięki pracy deweloperów Chrome OS-a, sterowniki i915 są w stanie poprawnie odtworzyć wideo wysokiej rozdzielczości – na chromebookach możliwe jest już odtwarzanie tak chronionych treści. W teorii powinno być to możliwe także na innych linuksowych systemach – sprawdzimy to jak kernel 4.17 trafi w nasze ręce.

Nowy sterownik AMD dla prawie wszystkich
Ta nowa infrastruktura grafiki Display Core, którą AMD wprowadziło w Linuksie 4.15, aktywowana jest teraz automatycznie także dla starszych kart graficznych. Dzięki temu na opensource’owym sterowniku będą mogli korzystać z HDMI 2.0 oraz przekierowania dźwięku na HDMI i DisplayPort. Dodano też wsparcie dla nowych czipów Vega12, które powinny zadebiutować lada moment.

Możliwe jest już także wykorzystanie platformy obliczeniowej ROCm (RadeonOpen Compute) ze starszymi układami graficznymi. W kernelu 4.18 pojawić się ma wsparcie dla ROCm na współczesnych architekturach Polaris i Vega.

Kernel odszyfruje strumień danych TLS
Ciężka praca odszyfrowania danych z Transport Layer Security została przeniesiona na kernel. Już w Linuksie 4.13 moduł KTLS pozwalał na szyfrowanie danych wysyłanych po TLS, teraz potrafi jest także bezpośrednio odszyfrować. Przekłada się to na zwiększenie wydajności HTTPS i innych protokołów komunikacyjnych korzystających z TLS. Obsługa tego na poziomie kernela to mniej operacji na pamięci, a to pozwala na znacznie efektywniejsze przetwarzanie danych, zwiększa przepustowość i zmniejsza obciążenie systemu i opóźnienia. KTLS lepiej się także integruje z akceleratorami kryptograficznymi.

Oczywiście wciąż kwestie takie jak nawiązanie i konfiguracja połączenia są przetwarzanie przez biblioteki działające w przestrzeni użytkownika, takie jak OpenSSL.

Bezpieczniej i wydajniej w systemach plików
Podstawowy linuksowy system plików EXT4 został zabezpieczony przed uzłośliwionymi obrazami kontenerów, które najwyraźniej mogły linkować do systemu plików hosta, a następnie „wmówić mu”, że są jego częścią… np. podmieniając katalogi /sbin na swoje – i w ten sposób otwierając drogę do uruchomienia malware.

Opiekun systemu Ted Ts’o wciąż jednak podkreśla, że fanom kontenerów nie powinno się wydawać, że podpinanie obrazów systemów plików jak popadnie jest rozsądną rzeczą. Ostrzeżenie słuszne, biorąc pod uwagę rosnącą popularność paczek snap Canonicala.

Z kolei system plików XFS obsługuje opcję montowania lazytime, stosowaną od jakiegoś czasu właśnie w EXT4. Potrafi ona wyraźnie zwiększyć wydajność systemu plików, opóźniając zapisy wywołane potrzebą aktualizacji metadanych.

Na froncie walki z widmami…
Skoro już o bezpieczeństwie była mowa, nowa wersje kernela przynosi ulepszenia w zabezpieczeniach przed Spectre v1 i v3, uporządkowano też kod wywołań systemowych, aby chronić przed atakami korzystającymi ze spekulatywnego wykonywania kodu.

Zmniejszono też narzut generowany przez zabezpieczenia przed atakiem Meltdown na stare procesory, które nie obsługiwały mechanizmu PCID (Process Context Identifiers) – teraz takie systemy z aktywną łatką powinny być znacznie bardziej responsywne.

Oprócz tego kernel 4.17 dostał zabezpieczenie przed Spectre v4, niedawno odkrytą wersją ataku o nazwie Speculative Store Bypass. Łatka na większości systemów jednak nie działa, ponieważ zależy od nowych funkcji włączonych z poziomu mikrokodu Intela, a tego mikrokodu jeszcze nie udostępniono użytkownikom.

Z zupełnie innej beczki, framework bezpieczeństwa AppArmor dostał mechanizm mediacji z gniazdkami sieciowymi, będący warunkiem koniecznym dla lepszej izolacji aplikacji uruchamianych z kontenerów snap. Podsystem kryptograficzny oferuje zaś mechanizm Cipher FeedBack, przydatny w systemach korzystających z Trusted Platform Module 2, oraz lekki szyfr blokowy Speck, który świetnie się spisuje na systemach nie mających sprzętowej akceleracji szyfru AES.

Wiosenne porządki
Ilu z nas kojarzy takie architektury procesorowe jak Blackfin, Cris, Frv, M32r, Metag, Mn10300, Score i Tile? Pewnie niewielu. No cóż, działał na nich Linux, ale już działać nie będzie. Linus zdecydował o usunięciu ponad 465 tysięcy wierszy kodu, odpowiedzialnych za wsparcie tych zapomnianych przez świat architektur.

Między innymi za sprawą tych porządków, Linux 4.17 jest mniejszy od Linuksa 4.16 – ubyło mu łącznie około 180 tysięcy wierszy kodu. Bez obaw, następne wakacyjne wydanie będzie już tłustsze. Zaczekamy na nie do sierpnia. A wszyskich zainteresowanych dokładną listą zmian w linuksowym kernelu zapraszamy na Phoronixa. Niestety kernelnewbies zaprzestało publikować swoje podsumowania – ostatnie jest dla kernela 4.15.

...

Znakomite wiadomosci.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 10:59, 07 Cze 2018    Temat postu:

Nowy Linux Mint czeka, by go przetestować: zapowiada się na system nie do zdarcia
Strona główna Aktualności05.06.2018 23:53

eimi
Adam Golański
@eimi
W tym tygodniu dostaliśmy do ręki pierwsze wydanie beta Linux Minta 19 – dystrybucji, którą od dawna polecamy na łamach dobrychprogramów jako wyjątkowo dopracowanego systemu zarówno dla początkujących, jak i tych, którzy chcą by system im po prostu działał. Po całkowitym rozstaniu z odmianą KDE i skupieniu się na środowiskach graficznych bazujących na bibliotekach Gtk+, ta nowa wersja ma się czym pochwalić. Po spędzeniu z Mintem 19 kilkunastu godzin możemy powiedzieć, że z takim właśnie Linuksem można iść śmiało wyzwalać świat PC, dziś wciąż w zdecydowanej większości należący do Microsoftu.

Wydanie Ubuntu 18.04 nie wzbudziło naszego zachwytu. Zbyt wiele rzeczy było niedopracowanych jak na dystrybucję o wydłużonym okresie wsparcia. Kto zaś zaktualizował system z poprzedniego wydania LTS, Ubuntu 16.04, mógł poczuć, jak uwierać potrafi zmiana domyślnego pulpitu z Unity na GNOME, a co za tym idzie, konieczność zerwania z wieloma dotychczasowymi przyzwyczajeniami. Z tym większym podziwem patrzymy na zespół deweloperów Linux Minta, którzy pokazali, że można na bazie Ubuntu 18.04 zrobić coś naprawdę dobrego i nowego, a zarazem nie przeszkadzać użytkownikom w pracy.

System i jego pulpit
Nowe wydanie Minta bazuje na kernelu 4.15 i bazowych pakietach Ubuntu 18.04: dostajemy demona systemd 237, serwer grafiki X.org 1.19.6, biblioteki Gtk+ 3.22.30, Qt 5.9.5, glibc 2.27 i mesa 18.0.0, oraz kompilator gcc 7.3.0. Na tej solidnej podstawie działa środowisko graficzne Cinnamon w wersji 3.8, dostępne są też odmiany z MATE (1.20) oraz Xfce (4.12.3). Tutaj skupimy się na wersji „cynamonowej”, jako najciekawszej.

O Cinnamonie 3.8 pisaliśmy już miesiąc temu, wówczas udostępniono jego testową wersję.

Przypomnijmy najważniejsze nowości:

ulepszenia w bibliotece muffin pozwoliły na znacznie szybsze (nawet czterokrotnie!) rysowanie nowych okienek,
poprawki w menedżerze plików nemo wyraźnie przyspieszyły wyświetlanie zawartości katalogów, przyspieszyły też wyszukiwarkę plików,
poprawiono integrację okienek typu CSD, a więc z dekoracjami rysowanymi w belce okna przez samą aplikację,
znacznie lepiej wyglądają powiadomienia, łatwiej nad nimi też zapanować, jedynie przeglądarki mogą wysyłać więcej niż jedno powiadomienie na pulpit jednocześnie.
Cinnamon ułatwia korzystanie z laptopów – blokuje ekran przed uśpieniem, pozwala na natychmiastowe wyłączenie przez zamknięcie pokrywy, aktywuje też automatycznie gładzik, jeśli nie wykryje podłączonej myszy.
poprawiono też kontrolkę dźwięku – pozwala na niezależne wyciszanie mikrofonu i głośników, a także ustawienie maksymalnej głośności na 150%,
wprowadzono nowy interpreter JavaScriptu SpiderMonkey 52,
dodano wsparcie dla protokołów [link widoczny dla zalogowanych] elogind i systemd-timedated1
praktycznie wszystkie komponenty zostały przepisane na Pythona 3.
„Mięta” nie do zdarcia
Największą gwiazdą tego wydania jest jednak niewątpliwie system Timeshift. Znamy go już z Minta 18.3, ale tutaj stał się kluczowym elementem całego mechanizmu aktualizacji systemu. Mówiąc prostym językiem – żadna aktualizacja nie powinna zepsuć działania Minta 19, w każdym momencie będzie można „cofnąć” czas i przywrócić ostatnią dobrą migawkę systemu.

Już po pierwszym uruchomieniu systemu zobaczymy nowy ekran powitalny, który w pierwszym z kroków poprosi o wybranie pożądanej strategii tworzenia kopii zapasowych. Domyślnie korzystamy z mechanizmu bazującego na protokole rsync i kopii przyrostowych na wskazanym nośniku, tworzonych z określoną częstotliwością. Bardziej zaawansowani użytkownicy, o ile sformatowali podczas instalacji dysk w formacie Btrfs, mogą poprzez Timeshifta skorzystać z jego zaawansowanych mechanizmów migawkowych. Wszystko to oczywiście przez łatwy w użyciu graficzny interfejs.

Co ogromnie interesujące, deweloperzy Minta połączyli Timeshifta z menedżerem aktualizacji. Ten ostatni polega na Timeshifcie jako gwarancie stabilności – jeśli nie skonfigurowaliśmy strategii tworzenia kopii zapasowych, to menedżer aktualizacji będzie o tym nam przypominał.

I bardzo dobrze. Takie podejście pozwoliło teraz domyślnie włączyć automatyczne aktualizacje systemu. Nawet jeśli coś pójdzie nie tak, przywrócenie Minta z migawki zajmuje dosłownie chwilę.

Oprogramowanie na żądanie
Znany z Minta 18.3 nowy menedżer oprogramowania doczekał się licznych poprawek w interfejsie. Czynią go one znacznie ładniejszym i przejrzystszym, szczególnie za sprawą animacji przejść i lepszego ułożenia kategorii. Lepiej działa też nawigacja klawiaturą, można wreszcie wyszukiwać w kategoriach, samo zaś wyszukiwanie jest znacznie szybsze. Wskaźniki aktywności i ładowania pozwalają zaś łatwiej śledzić stan operacji odbywających się w tle.

Trochę zmieniło się też pod maską. Dzięki zastosowaniu wewnętrznego bufora dla źródeł oprogramowania APT i paczek Flatpak, menedżer oprogramowania traktuje oba typy aplikacji na równi, użytkownicy mogą nimi zarządzać tak samo, niczym się nie martwiąc – wreszcie np. zobaczą rozmiar aplikacji z paczki flatpakowej. A dzięki daleko posuniętej optymalizacji tego bufora, menedżer oprogramowania uruchamia się o wiele szybciej niż wcześniej.

Systemowe aplikacje
Mint od dawna rozwija swoje Xapp, lekkie i całkiem niezłe aplikacje systemowe, które stanową nieodłączną część „cynamonowego” pulpitu. W Mincie 19 edytor tekstowy Xed dostał nowe okno preferencji, okno pomocy dla skrótów klawiaturowych oraz nową wtyczkę do automatycznego uzupełniania słów.

Czytnik PDF Xreader też ma nowe preferencje, wsparcie dla dodatkowych pasków narzędziowych i szybki dostęp do ostatnio otwieranych dokumentów PDF i ePUB. Możliwa jest też zmiana rozmiaru wyświetlanych miniatur, oddzielnie dla każdego dokumentu. Poprawiono płynność przewijania, dodano możliwość usuwania notatek w tekście, wreszcie można też zapisać dokumenty ePUB.

Pozostałe ulepszenia
Pojawiła się możliwość formatowania nośników pamięci USB w formacie exFAT, wskazania domyślnego monitora dla formularza logowania w konfiguracjach wielomonitorowych i poprawiono integrację z pobieraniem plików przez Firefoksa – stan pobierania będzie widoczny na liście okien.

Mint domyślnie zawiera nie tylko kodeki multimedialne, ale i fonty Microsoftu, domyślnie w systemie znalazł się kalendarz GNOME, usunięto zaś komunikator Pidgin, znacząco poprawiono wsparcie dla HiDPI, dodano dziesiątki nowych ładnych tapet.

Wypróbujcie nowego Minta 19 „Tara” sami – obraz ISO znajdziecie tutaj. Jak na betę – kawał świetnej roboty.

....

Potrzebny niebywale bo Win10 jest w stanie agonii...


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 10:54, 09 Cze 2018    Temat postu:

Amerykanie uruchomili najpotężniejszy superkomputer na świecie

Stany Zjednoczone po pięciu latach w końcu zdetronizowały Chiny i mogą teraz poszczycić się posiadaniem najpotężniejszego superkomputera na świecie

.nietrolluje 12 min. temu +1
Niestety, niebawem Chiny znowu wskoczą na pierwsze miejsce, a to za sprawą budowanego superkomputera o nazwie Tianhe-3, który będzie dysponował wydajnością na poziomie nawet 1000 petaflopsów.

Niestety bo... ?

Btw. w artykule chyba nie ma nic o OS:
OPERATING SYSTEM Red Hat Enterprise Linux (RHEL) version 7.4

Pewnie polegli na wyłączaniu aktualizacji na Win10 ( ͡° ͜ʖ ͡°)

..

Nie chcieli czarnego ekranu!
Wyscig trwa wiec to sie bedzie zmieniac.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 19:42, 14 Cze 2018    Temat postu:

Driving the Mars Rovers | Linux Journal

O tym jak projekt marsjańskiego łazika Curiosity mający potrwać 90 dni przciągnął się do 14 lat i trwa nadal. Również o systemie operacyjnym, i oprogramowaniu, które ciągnie cały projekt.
KOMENTARZE (3) : najstarszenajnowszenajlepsze

tomasz_B 6 godz. temu 0
No nie wiadomo czy wytrwa tyle bo jeszcze 14 lat nie minęło od lądowania CURIOSITY na marsie ( ͡° ͜ʖ ͡°)

etutuit 7 godz. temu via Android +3
Jakby uzyli Windowsa to misja zostałaby przerwana przez pierwszą aktualizację. Czyli pewnie trwałaby jakieś 2 dni.

WielkoPolski 4 godz. temu 0
@etutuit: zainstalowałaby się nowa wersja Skypa ( ͡° ͜ʖ ͡°)
...

Zarty ale duzo prawdy.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 11:00, 20 Cze 2018    Temat postu:

Publiczny kod za publiczne pieniądze. Dlaczego w Polsce się to nie uda?
rafal.borawskirafal.borawski 15.06.2018 13:53

Roku Linuksa na desktopach nie ma i zapewne jeszcze przez bardzo długi czas zawołanie to będzie wyłącznie okazją do - zazwyczaj kiepskich - żartów, powtarzanych głównie przez osoby niechętne Linuksowi bądź użytkowników tegoż ostatniego, którzy przy tym charakteryzują się zdrowym dystansem do zagadnienia ekspansji “Pingwina” na komputerach osobistych. Ja samego siebie wolę widzieć w gronie tych ostatnich, a już z całą pewnością nie zaliczam się do tych użytkowników Linuksa, którzy z powodu niskiej penetracji rynkowej biurkowo zorientowanych systemów operacyjnych z logo Pingwina, nie mogą spać po nocach i z całej tej zgryzoty chudną w oczach (choć tego ostatniego trochę żałuję). Przy tym jednak uważam, iż taki wzrost popularności dystrybucji linuksowym w wydaniu desktopowym jest jak najbardziej pożądany, a w pewnych obszarach nawet wysoce wskazany, czemu poniekąd ten wpis jest poświęcony. Dlatego też tak całkiem obojętnym nie pozostaje dla mnie pytanie, czy możliwym jest, by w ciągu najbliższych kilku lat udział linuksowych dystrybucji na komputerach osobistych był w stanie wydostać się z “getta” błędu statystycznego, czyli poziomu 2-3 procent pokrycia rynkowego?

Prawdopodobnie wyjdę w tym momencie na niepoprawnego optymistę, ale uważam, że obecnie jest na to szansa większa niż kiedykolwiek wcześniej, na co składa się kilka mniej lub bardziej ze sobą powiązanych kwestii, choć jeden aspekt wydaje się mi kluczowy i głównie od aktywności w tym obszarze zależy, czy faktycznie będziemy świadkami istotnych wzrostów. Tak się bowiem składa, że za niespełna 2 lata - o ile nic się w tej materii nie zmieni - kończy się wsparcie dla wciąż chyba najpopularniejszego wydania Okienek, czyli Windowsa o szczęśliwej cyferce 7 u swego boku. Prawdopodobnie już teraz w niejednej organizacji trwają prace koncepcyjne w zakresie planowanych działań na tę właśnie okoliczność. Natomiast o ile nie łudzę się jakoś specjalnie, że w przypadku przedsiębiorstw, które obecnie Okienkami stoją, jest w ogóle brana pod uwagę inna opcja niż produkt Microsoftu, to już w przypadku instytucji publicznych nie musi to być takie oczywiste, co mnie cieszy w dwójnasób. Przede wszystkim instytucje publiczne mają o wiele większą społeczną “siłę rażenia” niż nawet największe przedsiębiorstwo, ale przede wszystkim uważam, że akurat w obszarze publicznym otwarte oprogramowanie powinno być standardem, a nie wyjątkiem jak to niestety ma obecnie miejsce.

reklama

O przyczynach leżących u podłoża takiego przeświadczenia - potrzeby silniejsze symbiozy projektów otwarto-źródłowych z instytucjami utrzymywanymi z podatków powszechnych - wspominałem krótko przy okazji wpisu o decyzjach władz Barcelony, które postanowiły pożegnać się z produktami Microsoftu. Wydaje się, że świadomość korzyści płynących z takiego podejścia zaczyna powoli rosnąć wśród naszych ziemskich “pasterzy” również pod innymi szerokościami geograficznymi, o czym może chociażby świadczyć fakt, że niespełna dwa lata temu amerykańskie władze popełniły dokument, który określał - chyba po raz pierwszy w ichniej historii - politykę dotyczącą oprogramowania używanego w instytucjach rządowych. Znalazł się tam między innymi rozdział dotyczący 36 miesięcznego pilota, w ramach którego nałożono na jednostki podlegające władzy federalnej obowiązek publicznego udostępniania przynajmniej 20% z nowo wdrażanego kodu. Zaś jeśli chodzi o przykłady zdecydowanie świeższe, to w kwietniu niemiecki rząd - zresztą właśnie po zakończeniu kilkunastomiesięcznego pilota - podjął decyzję o całkowitej przesiadce tamtejszego centrum informacji technologicznej (ITZBund) na otwarto-źródłowe rozwiązania od Nextcloud GmbH. Z kolei władze Izraela mniej więcej w tym samy czasie zdecydowały się wreszcie na praktyczną realizację rozolucji z jesieni 2014 roku, upubliczniając kod wykorzystywany do działania rządowego portalu, zaś kolejne instytucje publiczne mają być od teraz zachęcane do podobnych kroków.

Oczywiście w kontrze do tego można przywołać zeszłoroczną decyzję nowych władz Monachium, które postanowiły zakończyć kilkunastoletni eksperyment z open-source i tym samym ponownie zbratać się z Microsoftem. Chociaż jakby się dobrze zastanowić, to nawet ten przykład można spróbować wygrać na rzecz tezy o konieczności zmian w podejściu do “własnościowego” oprogramowania w instytucjach publicznych i nie chodzi absolutnie o wypominanie faktycznych czy rzekomych powiązań nowego burmistrza z firmą założoną przez Billa Gatesa. W tym kontekście nie idzie nawet o bajońskie sumy, które pojawiają się w kontekście kosztów migracji “powrotnej”. Chciałbym w tym miejscu zwrócić uwagę na kluczowy - z perspektywy centralnej tezy niniejszego wpisu - aspekt związany w omawianymi tu wydarzeniami. Otóż lokalnym władzom udało się uzyskać potężny dyskont od MS na licencje stanowiskowe (plus deklarację przeniesienia europejskiej siedzi MS do ich miasta), co po raz kolejny pokazuje dobitnie, że monopol zazwyczaj służy wyłącznie temu, kto sprawuje nad nim kontrolę. Trudno bowiem sobie wyobrazić sytuację, w której MS byłby skłonny pójść dobrowolnie na tak dalekie ustępstwa jak w Monachium (czy jeszcze większe kilka lat wcześniej w Chinach), gdyby nie realne widmo odstawienia ich biznesu na boczne tory.

Wracając jednak do mojego wpisu sprzed około 6 miesięcy: przy okazji jego powstania odgrażałem się, że kwestii tej (potrzeby mocniejszego postawienia na oprogramowanie otwarto-źródłowe w instytucjach publicznych) poświęcę kiedyś osobny tekst, ale jak dotąd z tym tematem zawsze było mi jakoś nie po drodze. Prawdopodobnie wszystko rozbijało się o to, że taki wpis wymagałby głębszego namysłu, a nie tylko sprawnych palców i grafomańskich inklinacji, więc zapewne nieuświadomione poczucie przyzwoitości (spełniam tylko 2 z 3 punktów) nie pozwalało mi się tym zagadnieniem zająć jak dotąd. I pewnikiem tak byłoby dalej, gdyby nie ostatni długi weekend i wcale nie chodzi w tym miejscu o fakt nagłej nadpodaży wolnego czasu z nim związanego. Zwłaszcza, że impuls do ponownego pochylania się na tym zagadnieniem pojawił się dopiero w drodze powrotnej z weekendowego wyjazdu i był efektem refleksji - tak i mnie czasem to nieszczęście dopada - nad stanem naszej “państwowości”. A ściślej rzecz stawiając: poszło - jak zawsze - o pieniądze, które ktoś postanowił wyciągnąć z mojego portfela.

Autostrady Wielkopolskie - studium przypadku
Otóż od kilku lat dość regularnie (choć niezbyt często) staję przed koniecznością pokonania autem trasy z Warszawy do Poznania i z powrotem. W tym celu wybieram najszybszą dostępną możliwość, czyli miast jakimiś opłotkami wbijam się na autostradę A2, dzięki czemu w czasie około 3 godzin jestem na miejscu. Być może nie wszyscy wiedzą, ale ten około 300 kilometrowy odcinek autostrady z Warszawy do Poznania zarządzany jest przez 2 podmioty: zdecydowanie dłuższy przez Generalną Dyrekcję Dróg i Autostrad (dalej GDDKiA), zaś drugi niespełna stukilometrowy przez prywatną spółkę Autostrady Wielkopolskie S.A. (dalej AWS). Nie będę się w tym miejscu pochylał nad przyczynami, z powodu których od wielu lat możemy z Warszawy dojechać do Łodzi po A2-ce bez dodatkowych opłat i skupię się wyłącznie na “czynszowej” części trasy. Ta ostatnia zaczyna się właśnie mniej więcej na wysokości Łodzi (patrząc z perspektywy Stolicy) i z grubsza można podzielić ją na dwie równe długością części - pierwsza z nich leży we władaniu państwowym, zaś druga zarządzana jest przez AWS, choć tak po prawdzie zdaje się, że ta obsługiwana przez GDDKiA jest nieco dłuższa. Jednak różnica ta jest na tyle znikoma, że nie ma sensu z tego powodu kruszyć kopi, więc przyjmijmy, że w przypadku każdej z nich mamy do pokonania równo 100 kilometrów.

Niestety jeśli chodzi o płatności, to tutaj “parytety” są mocno zachwiane. W przypadku “publicznej” części trasy za przejazd zapłacimy 9,90 i ta kwota - o ile pamięć mnie nie zawodzi - nie zmieniła się nawet o grosz odkąd przyszło mi z niej po raz pierwszy skorzystać, czyli gdzieś w drugiej połowie 2011 roku. Tymczasem za przejazd “prywatnym” odcinkiem - zarządzanym przez AWS - zostaniemy skasowani aż dwa razy. W roku 2011 oraz przynajmniej na początku 2012 na każdej z tych dwóch bramek trzeba było zostawić bodajże po 13 złotych. Tym samym mieliśmy dwa mniej więcej równe odcinki do pokonania, ale różnie “wycenione”, czyli odpowiednio za 10 i 26 złotych. Dzisiaj po 7 latach cena za przejazd odcinkiem zarządzanym przez AWS wzrosła do 40 złotych, czyli za każdy pokonany kilometr zapłacimy ponad 4 razy więcej niż w przypadku odcinka “państwowego”. Obawiam się, że to jednak nie koniec i dysproporcja ta będzie tylko rosnąć w kolejnych latach. W związku z tym po powrocie do domu zainteresowałem się tym tematem, co by spróbować ustalić, jak dużych podwyżek można się jeszcze spodziewać, bo obecna wysokość haraczu narzuconego przez AWS niebezpiecznie zaczyna się zbliżać do mojej granicy dopuszczalnego bólu.

Obawiam się, że prawdopodobnie nie ma dla mnie - i wszystkich podróżujących tą trasą - dobrych wieści w tym zakresie, bo ponoć AWS są na mocy podpisanej umowy prawdziwym suwerenem w tej kwestii, a ta będzie obowiązywać jeszcze 20 lat (do 2037). Natomiast przy tej okazji mogłem się również dowiedzieć, że jakoś na początku tego roku ta swoista “autonomia” AWS stała się nawet przedmiotem interpelacji poselskich, a jaśnie nam panujący Minister Sprawiedliwości zarządził, by śledczy zbadali temat umowy zawartej swego czasu przez “wraże” władze ze spółką założoną między innymi przez świętej pamięci Jana Kulczyka. Z punktu widzenia niniejszego wpisu nie ma zupełnie znaczenia czy w tym konkretnym przypadku faktycznie doszło do “współpracy” Biznesu z Polityką wykraczającej poza dopuszczalne “standardy”, czyli że był to przykład sytuacji w której zabezpieczone zostały wyłącznie cele tego pierwszego oraz doraźne korzyści jakiejś grupy urzędników państwowych. Tematy “polityczne” zwłaszcza w takiej właśnie odsłonie nie interesują mnie w żaden sposób i wolałbym, żeby nie stały się okazją do wzajemnych połajanek w komentarzach pod tym wpisem. Po prostu zastanawia mnie, dlaczego takie - jak opisywane właśnie teraz - sytuacje uważamy za niedopuszczalne, a po ich upublicznieniu osoby w nie uwikłane spotykają się z dość powszechną krytyką, podczas gdy w obszarze publicznej infrastruktury IT jesteśmy - w pewnym sensie - skłonni uznać to za bezdyskusyjny standard?

Kluczowe pytania
W związku z tym zacząłem sobie dumać, dlaczego w polskiej administracji publicznej przyjmowane jest za oczywistość, że jak system operacyjny to tylko Windows, jak poczta to nic ponad tandem Outlook oraz MS Exchange, a do edycji dokumentów nadaje się wyłącznie MS Word? I tu absolutnie nie idzie o moją rzekomą niechęć do MS, zwłaszcza że w ostatnich latach mój stosunek do firmy z Redmond znacząco się zmienił. W grę nie wchodzi tym bardziej jakoś wyjątkowo krytyczna z mojej strony ocena oprogramowania tworzonego przez koderów zatrudnianych przez MS. Po prostu tak się złożyło, że przez lata ich produkty zdominowały pewne obszary zastosowań, dlatego najłatwiej jest mi właśnie je przywołać w kontekście zobrazowania pewnej “patologii”, której poświęcony jest niniejszy tekst.

Od razu jednak zaznaczę czy też wyjaśnię - poniekąd wbrew tytułowi - że zasadniczym problemem nie jest zamknięty charakter kodu tych rozwiązań, a przynajmniej nie bezpośrednio, ale sposób licencjonowania, gdzie dostawca softu w kluczowych obszarach jest totalnym suwerenem, czyli rości sobie prawo do ostatniego słowa w niemal każdej kwestii, a przy tym posiada stosunkowo niewiele zobowiązań. O ile taka asymetria w przypadku zwykłego konsumenta wydaje się naturalna - “naturalna” w tym sensie, że pojedyncza osoba i jej portfel to zazwyczaj za mało, by rzucić wielkich rynku IT na kolana - o tyle bierna postawa instytucji publicznych jest co najmniej zastanawiająca. A że można inaczej najlepiej świadczy wcześniej przywołany przykład chińskich władz, które zmusiły MS nie tylko do daleko idących zmian w oprogramowaniu tego ostatniego, ale też otrzymały zgodę na inspekcje kodu Windowsa a nawet jego współtworzenie.

Dla pełnej jasności w tym miejscu pozwolę sobie na jeszcze jeden komentarz, bo nie chciałbym, żeby ten fragment był źle zrozumiany. Otóż model biznesowy panujący na rynku oprogramowania przez ostatnie kilkadziesiąt lat z zasady mi nie wadzi, choć pod wieloma względami przydałaby się regulacja niektórych z jego aspektów. Ba, wyznam, że w pewnych obszarach nadal jest mi trudno wyobrazić sobie tworzenie i rozwój wartościowego oprogramowania w modelu innym niż obecnie dominujący, czyli takim gdzie autor aplikacji umożliwia korzystanie z własnego produktu wszystkim chętnym i gotowym uiścić określoną opłatę, bez jednoczesnego zobowiązania do przekazania do niego części praw. A przy tym chociaż święty w tym zakresie nie jestem, to na pewno w przypadku jakiegokolwiek naruszenia tego “prawa własności intelektualnej” nie przejdzie mi przez usta, że oto mieliśmy do czynienia z “nieautoryzowanym kopiowaniem”. Już prędzej usłyszycie ode mnie wówczas o pospolitej kradzieży. Jednakże to właśnie problem praw do kodu jest dla mnie głównym przyczynkiem do krytyki obecnego stanu rzeczy, zaś przywołanie wspomnianej sytuacji dotyczącej kawałka autostrady A2 miał nie tylko służyć jako poręczne narzędzie polemiczne, ponieważ za jego sprawę trochę zmienił się - a może tylko bardziej się utwierdził - mój sposób postrzegania kwestii wykorzystywania własnościowego kodu w instytucjach publicznych.

Jeśli ktoś czytał mój wpis o Barcelonie, ten być może pamięta wyrażoną wówczas przeze mnie ocenę filmowej prezentacji, jaką umieścili na własnej stronie inicjatorzy akcji “Public Money, Public Code”.

Otóż napisałem w tamtym tekście, że inaczej rozłożyłbym akcenty w przedstawionej argumentacji i w znacznie mniejszym stopniu koncentrowałbym się na “demonizowaniu” zagrożeń związanych z naturą zamkniętego kodu. W zasadzie dzisiaj nadal utrzymuję wyrażone wówczas zdanie, jednakże po ponownym przemyśleniu tego tematu w kontekście moich ostatnich doświadczeń “turystycznych”, zdecydowanie poważniej niż wówczas traktuję filmową ilustracje konsekwencji, które wiążą się z faktem, iż instytucje finansowane z naszych podatków przekazują ogromne sumy za … no właśnie: za co? Niestety nie zadowala mnie odpowiedź, iż ten zakres reguluje umowa między stronami, bo przecież w przypadku AWS doszło do podpisania stosownego porozumienia, a mimo to obszar i charakter współpracy w tym ostatnim przypadku budzi szczególny niepokój lub przynajmniej silne kontrowersje. Tymczasem w obszarze IT podobne działania nie wywołują właściwie żadnych emocji. Powiem więcej, po zakończeniu "rządów" AWS nad około 250 km autostrady A2 zostanie chociaż ten kawałek drogi, który rzeczona spółka z Wielkopolski swego czasu - na mocy porozumienia z lat 90-tych ubiegłego stulecia - wybudowała (głównie z własnych środków). Co zostałoby w przypadku decyzji mojego ulubionego chłopca do bicia, czyli Microsoftu, gdyby ten ostatni postanowiłbym któregoś dnia porzucić rozwój Windowsa lub co gorsza zakończyłby swoją działalność nie upubliczniając jednocześnie kodu? Oczywiście można nad tym się zadumać wyłącznie w ramach pewnego eksperymentu myślowego, bo nic nie wskazuje, żeby miało się to w przewidywalnej przyszłości wydarzyć. Ale już całkiem realnym jest scenariusz, kiedy to - tak jak w swego czasu w Monachium czy obecnie w Barcelonie - zapadłaby decyzja o zmianie kluczowego dostawcy systemu operacyjnego. Cóż innego wówczas pozostaje niż wylewanie asfaltu na nowo?

Dlaczego kod powinien być jednak publiczny?
Na szczęście nawet wówczas nie jest tak źle i to chyba dobry moment, by dwa słowa poświęcić jeszcze temu dlaczego uważam, że w przypadku instytucji publicznych istotna jest nie tylko kwestia praw własności do kodu, ale równie kluczowe jest, by tam, gdzie to tylko możliwe, ten kod był upubliczniany. Będzie - mam nadzieję - naprawdę krótko, ponieważ to kolejny mój tekst, który rozrósł się znowu ponad zakładaną miarę, a jeszcze został jeden blok do napisania. Skupię się na dwóch aspektach, które lubimy najbardziej chyba wszyscy, czyli będzie o pieniążkach.

Zacznijmy od wyłuszczenia najbardziej podstawowej różnicy między sektorem publicznym a prywatnym, jeśli chodzi o gospodarkę. Otóż spółki prawa handlowego mają zarabiać, co na niwie IT (w przypadku średnich i dużych przedsiębiorstw) sprowadza się między innymi do tego, że inwestycja w autorski (choć nie tylko) soft jest taktowana jako inwestycja właśnie, która między innymi ma podnosić wartość Spółki i nawet jeśli jej władze nie zamierzają czerpać bezpośrednio korzyści z monetyzacji wdrażanego rozwiązania, to niejednokrotnie przekonałem się, że w świecie rządzonym przez księgowych nierzadko od wielkości trzosu, który jest konieczny do osiągnięcia zamierzonego celu, ważniejsza jest kolumna, w która ten wydatek można zapisać. W każdym razie nakłady na soft są koniecznymi kosztami związanymi z bieżącą działalnością operacyjną i zazwyczaj nikt specjalnie nie przejmuje się konsekwencjami polityki w tym zakresie dłuższymi niż kilka lat. Ma być tanio, szybko i dobrze (wybierz 2 z 3).

Jednakże nawet w przypadku bardzo buchalteryjnie zorientowanych Spółek, pewien stopień racjonalności operacyjnej musi występować, co w efekcie może prowadzić do ścisłej kooperacji z bezpośrednim konkurentem (nie ma tu na myśli nagannych i nielegalnych praktyk związanych ze zmową rynkową). W jednym z moich wpisów wspominałem o liście, który Bill Gates wystosował do ówczesnych władz Apple, gdzie już ponad 30 lat temu podnosił kwestię powszechnych korzyści płynących z takiej interoperacyjności dla wszystkich aktorów w nią zaangażowanych (oczywiście zostawiam na boku kwestię tego czy robił to szczerze) . Dlatego też od co najmniej kilku a nawet kilkunastu lat jesteśmy świadkami spektakularnych projektów (Linux czy Android jest tego najlepszą egzemplifikacją), gdzie różne podmioty grają do jednej bramki (skoro Mundial za pasem, to jedną czerstwą metaforę- mam nadzieję - że mi wybaczycie), ponieważ w szerszej czy dłuższej perspektywie zwyczajnie się to im opłaca.

Spójrzmy bowiem na prace nad jądrem Linux, gdzie jednym z najbardziej hojnych sponsorów jest MS. Otóż w 2011 roku koszty komercyjnego odtworzenie praca nad jądrem Linux (w wersji 2.6.x) zostały oszacowane na około 3 miliardy dolarów i to przy użyciu najprostszej metodologii, która po prostu przekłada liczbę linijek kodu na odpowiednie wartości w amerykańskiej walucie. Jest to ogromna kwota, nie może zatem dziwić, że wiele firm produkujących sprzęt użytkowy stawia na jądro Linux jako podstawę własnych rozwiązań miast budować wszystko od początku. Ta uwaga w takim samym stopniu dotyczy producentów prostych routerów domowych jak i producentów najdroższych aut. Po prostu taka kooperacja się opłaca również podmiotom nastawionym na zarabianie pieniędzy, nawet kosztem potencjalnego zwiększenia konkurencji. A przecież instytucje publiczne działają w oparciu o zupełnie inne cele, więc kwestia budowania potencjalnych przewag nad "rywalami" tutaj nie występuje. Jednakże co ważniejsze: obecnie żadna - nawet najpotężniejsza gospodarka - nie jest w stanie podjąć się wysiłku zbudowanie wszystkiego od podstaw, na szczęście w odwodzie zostają powszechnie dostępne rozwiązania otwarto-źródłowe, które jednak w wielu wypadkach pociągają za sobą pewne zobowiązania w zakresie wykorzystania ich kodu, czyli konieczność dzielenia się własną pracą. Dlatego też obecnie Rosja czy kilkanaście lat wcześniej (bez powodzenia) Chiny, chcąc uniezależnić się od oprogramowania obcej proweniencji, postawiły w pierwszej kolejności na Linuksa.

I tym sposobem przechodzimy do aspektu, który mnie jako przeciętnego "użyszkodnika" szczególnie interesuje. Dzięki obowiązkowi upubliczniania kodu i zaangażowaniu się licznych podmiotów w jego rozwój (czemu niewątpliwie sprzyjałaby inna polityka instytucji publicznych w tym zakresie), mógłbym się cieszyć dostępem do jeszcze większej liczby, jeszcze lepszego (i przy tym zazwyczaj darmowego) oprogramowania. No i przede wszystkim przestać się obawiać aplikacji, które stają się w pewnym sensie standardem na pewnym obszarze, a przy tym są kompatybilne wyłącznie z samym sobą. W przeciwnym razie będziemy nadal świadkami sytuacji, gdy jednym z kluczowych "ficzerów" pewnego oprogramowania biurowego jest fakt, że jego twórcom udało się osiągnąć pełną czy prawie pełną kompatybilność z rozwiązaniem Microsoftu.

Dlaczego w Polsce się nie uda?
Nie będę ukrywał, że ta część tekstu jest efektem zobowiązania nierozważnie złożonego w tytule tego wpisu. Niestety tak się tym razem zdarzyło, że nie miałem pomysłu na inną równie clickbaitową nazwę i teraz muszę jakoś z tego wybrnąć. Z drugiej strony nie mam najmniejszych wątpliwości, iż o powodach, dla których to nie może się udać w naszym pięknym nadwiślańskim kraju, dowiem się dobitnie z komentarzy, które prawdopodobnie pojawią się pod tym wpisem. Oczywiści kilka z takich obiekcji sądzę, że mogę już teraz z dużym prawdopodobieństwem antycypować i nie chodzi mi bynajmniej o niezbyt - moim zdaniem - zadowalającą kondycję polskiego "sektora" open-source, bo tam gdzie jest popyt zazwyczaj dość szybko pojawia się również podaż. Przypuszczam bowiem, iż w pierwszej kolejności spotkam się z zastrzeżeniami o charakterze uniwersalnym, czyli zapewne będę mógł przeczytać, iż jeśli coś jest darmowe, to w praktyce niewiele jest warte. Spodziewam się również zobaczyć opinie, iż wiele oprogramowania własnościowego nie ma zbliżonych jakościowo odpowiedników wśród otwarto-źródłowych rozwiązań. No i last but not least przywołane zostaną legendarne panie Krysie i Basie, których świat zawali się w przypadku konieczności korzystania z narzędzi innych niż z logo MS czy inszego SAP-a.

Jeśli chodzi o dwa pierwsze zastrzeżenie, to nie zamierzam się nad nimi specjalnie pochylać, więc napiszę jedynie, że przywołana wyżej zdroworozsądkowa mądrość o cenie idącej w parze z jakością - jak zawsze w takich przypadkach - czasem się sprawdza, a w innym wypadku już niekoniecznie. Ważniejsze jest jednak coś innego, a mianowicie ukryta przesłanka, którą przyjmuje się domyślnie w tym kontekscie, choć w praktyce jest ona z gruntu fałszywa, a przynajmniej częstokroć taką bywa. Otóż nie jest prawdą, że każdy projekt otwarto-źródłowy jest ze swojej natury przedsięwzięciem hobbystycznym (osoby w nie zaangażowane wcale nie muszą pracować pro bono) ani tym bardziej z definicji nie pozwalającym na godziwy zarobek. Najlepszym przykładem falsyfikującym to ostatnie przekonanie jest działalność Google’a, którego najważniejsze produktu są wydawane na otwartych licencjach, a te z zastrzeżonym kodem w większości przypadków są zwolnione z bezpośredniej odpłatności. Oczywiście ktoś powie, że prawdziwe koszta dla użytkownika końcowego gdzie indziej są ukryte - co samo w sobie może być przedmiotem dyskusji - ale nawet to jasno pokazuje, że upublicznienie kodu w żaden sposób nie blokuje możliwości zarabiania na tego rodzaju sofcie. Po prostu rynek IT stale ewoluuje i w erze myślenia o oprogramowaniu jako usłudze, a nie gotowym produkcie, zmienia się również model biznesowy.

Co do braku odpowiedników, to ponoć z faktami się nie dyskutuje, więc i ja nie podejmę się tego daremnego trudu, ponieważ prawdą jest, że dla pewnej kategorii oprogramowania trudno znaleźć chociaż w części równoważny otwarto-źródłowy ekwiwalent. Natomiast innym faktem jest również, że większość urzędników państwowych czy samorządowych wykonuje dość proste czynności związane z obsługą komputera i naprawdę do sporządzenia służbowej notatki czy odpowiedzi na wniosek petenta w zupełności wystarczy mało wyrafinowany edytor tekstowy, zaś do prostego zestawienia danych liczbowych nada się równie prosty arkusz kalkulacyjny. Tak samo jak do obsługi korespondencji elektronicznej nie musi być z konieczności zaprzęgnięty tandem Outlook oraz MS Exchange.

W ramach anegdoty przytoczę przykład znany mi z kręgów mojej rodziny, gdzie w pierwszych latach XXI wieku osoba spokrewniona ze mną trafiła do instytucji zajmującej się przetwarzaniem danych statystycznych. Jakież było jej zdziwienie i przerażenie, gdy przekonała się ona, iż wszyscy zatrudnieni w jej zespole ludzie (nierzadko kilka lat młodsi) wykorzystywali Excela jako poręczne narzędzie do rysowania tabelek, ponieważ ich praca sprowadzała się do wstawiania cyferek w poszczególne kolumny, natomiast wszelkie - niezbyt złożone - działania algebraiczne na tych danych były również w taki sam sposób do arkusza wrzucane po wcześniejszym przeliczeniu na kalkulatorze. Nie chodzi mi w tym miejscu o dowodzenia bezmyślności takiej czy innej grupy zawodowej, bo podobne "w duchu" sytuacje dane mi było obserwować w całkiem sporych korporacjach. Po prostu wyraźnie na tym przykładzie widać sytuację, w której bardzo potężne narzędzie, jakim jest MS Excel, zostało zaprzęgnięte do realizacji czynności, dla których wystarczał prosty kalkulator i kawałek kartki, a to dzisiaj bywa raczej standardem niż wyjątkiem.

Oczywiście wszędzie tam gdzie tej alternatywy rzeczywiście nie ma nikt przy zdrowych zmysłach z powodów ideologicznych raczej nie będzie wciskał otwarto-źródłowego “odpowiednika”. Wystarczy przecież przypomnieć, iż w Monachium kilka lat trwał pilot wdrożenia, a kolejne działy czy obszary migrowane były stopniowo i nawet po kilkunastu latach liczba pecetów uzbrojonych w Windowa w tamtejszych urzędach była nadal zauważalna (ponoć 20% sprzętu nadal chodzi pod Okienkami). Bardziej rzecz idzie o wdrożenie takich mechanizmów czy regulacji, które promowałyby rozwiązania otwarto-źródłowe lub chociaż takie, gdzie kod stałby się własnością instytucji publicznych, ale nie za wszelką ceną czy każdym kosztem.

Jedyny argument, przed którego wagą muszę ulec dotyczy przemożnej mocy przyzwyczajeń. Niestety liczebność urzędników państwowych czy samorządowych jest na tyle znacząca, że Ustawodawca zawsze będzie zmuszony liczyć się z ich głosem. Oczywiście zmiana rodzaju oprogramowania, na którym przyjdzie pracować przysłowiowej Pani Krysi czy Panu Jurkowi ma zupełnie inny ciężar gatunkowy niż chociażby likwidacja trzynastek czy wydłużenie godziny pracy urzędów. Jednakże wbrew opinii zapewne niejednego czytelnika, wcale nie uważam funkcjonowania administracji państwowej za zło koniecznie, a samych urzędników w całej swej masie za darmozjadów, choć i takich przykładów nie brakuje (sam znam kilka).

Tym niemniej mam wrażenie, że próba zmiany utartych przyzwyczajeń może się skończyć jak historia pewnego entuzjasty wolnego oprogramowania, który w jednej ze szkół postanowił na stojących tam komputerach posadowić Linuksa. Smutna to historia i po cichu liczę, że jednak nieprawdziwa. Niestety przyzwyczajenia czy tam nawyki - jak mawiają - są drugą naturą ludzką, a podsypane "słowiańską" nutą i historią mogą prowadzić do takich właśnie sytuacji. Dlatego bez odważnego ustawodawstwa ciężko będzie o to, byśmy notorycznie nie byli skazani na budowanie małych uliczek czy autostrad rękoma największych świata IT z wszelkiego tego konsekwencjami.

...

Trzeba dostarczyc prosty sprawny Linuks. Ludzie nie potrzebuja go do lotów kosmicznych przeciez!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Pią 19:26, 22 Cze 2018    Temat postu:

deepin Polska - polska społeczność dystrybucji deepin OS

deepin to kompletny system operacyjny, tworzony z pasją i dopracowany w najmniejszych szczegółach. Dostosowuje się do Twojego stylu pracy z komputerem dzięki czemu przejście z dotychczasowego systemu operacyjnego nie stanowi najmniejszego problemu...

...

Polski wklad w wolne oprogramowanie.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 11:06, 24 Cze 2018    Temat postu:

Ubuntu udostępnia pierwsze statystyki: zazwyczaj instalacja systemu trwa tylko 18 minut!
Grzegorz Cichocki 23 czerwca 2018

W Ubuntu 18.04 Bionic Canonical dodało nową opcjonalną funkcję, która odpowiada za zbieranie danych o użytkowniku i systemie. Dzięki temu firma może lepiej zrozumieć jacy użytkownicy instalują Ubuntu oraz jak z niego korzystają. Gigant z Wysp postanowił podzielić się z nami niektórymi statystykami.

Instalacja Ubuntu zazwyczaj trwa tylko 18 minut

Tak, Canonical chwali się, że średni czas instalacji Ubuntu trwa tylko 18 minut. Jest to naprawdę świetny wynik, tym bardziej, że instalacja Windowsa potrafi trwać o wiele dłużej. To jednak nie wszystko. Niektórzy użytkownicy potrafią zejść nawet poniżej 8 minut. Muszę dodać, że Canonical pracuje nad tym, aby system instalował się jeszcze szybciej. Mnie zazwyczaj instalacja zajmuje 12-15 minut.


Ponad połowa użytkowników wybiera Ubuntu jako swój główny system operacyjny na danym urządzeniu. Są jednak również tacy, którzy robią Dualboot, czyli stawiają dwa OS-y na jednym komputerze. Sam tak miałem przez jakiś czas, aż w końcu Linux wyparł Windowsa. Co ciekawe, niewiele osób instaluje system z opcją szyfrowania danych, za to ponad 90% użytkowników podczas instalacji pobiera aktualizacje systemowe.


Wśród użytkowników Ubuntu dominują urządzenia średniej klasy

Gdy zobaczyłem najczęstszą specyfikację komputera, z którego korzystają użytkownicy Ubuntu, miałem wrażenie, że czytam o swoim urządzeniu. A więc do rzeczy – najczęściej ludzie instalują Ubuntu na sprzętach z 4 lub 8 GB RAM-u, natomiast ich monitor zazwyczaj ma rozdzielczość Full HD.


Co ciekawe, nadal popularne są komputery z tylko jednym gigabajtem RAM-u. Na wykresie również znalazło się urządzenie wyposażone w aż 128 GB pamięci operacyjnej. Czyżby to był jeden z superkomputerów? Wiele osób wciąż korzysta z monitorów wyposażonych w rozdzielczość 1366 x 768 pikseli (ostatni raz widziałem takie w szkole). Wyróżniona została również wartość 800 x 600, ale taka rozdzielczość jest najczęściej wykorzystywana na maszynach wirtualnych, więc może to lekko zaburzać statystyki.


Ubuntu najpopularniejsze jest w Stanach Zjednoczonych

Co ciekawe, Ubuntu największą popularność zyskało w Stanach Zjednoczonych. Przypominam, że stamtąd pochodzą takie systemy, jak Windows oraz MacOS. USA to jednak ogromny rynek i jest tam dużo miejsca na przeróżne OS-y. Zaraz za USA znajdziemy takie państwa jak Brazylia, Chiny, Indie oraz Rosja.


W Europie Ubuntu najpopularniejsze jest w Niemczech, Francji, Włoszech, Hiszpanii i oczywiście w Wielkiej Brytanii. Nieco mniejszym rozgłosem cieszy się w Polsce i na Ukrainie.

Reasumując…

Z funkcji gromadzenia statystyk korzysta 67% użytkowników Ubuntu 18.04 Bionic, dzięki czemu możemy uznać powyższe dane za miarodajne. Mnie najbardziej zdziwił średni czas instalacji systemu, który, tak jak wcześniej informowałem, wynosi zaledwie 18 minut. Zastanawiam się również, kto ma ochotę korzystać z Ubuntu mając jedynie 1 GB pamięci RAM. W takim wypadku wolałbym skorzystać z innej dystrybucji Linuksa, na przykład Peppermint OS.

Jak oceniacie powyższe statystyki dotyczące Ubuntu? Korzystacie z Ubuntu lub innego Linuksa? Dajcie znać w komentarzach!

Komentarze

stpawel 1 min. temu via Android 0
To będzie bez wątpienia rok linuxa.

...

Rozwoj linuxa cieszy!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 85495
Przeczytał: 180 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 19:12, 27 Cze 2018    Temat postu:

Oto zwyczaje i komputery użytkowników Ubuntu. Canonical publikuje raport z telemetrii
Strona główna Aktualności24.06.2018 14:50

b.munro
Maciej Olanicki
@b.munro
W lutym Canonical ogłosił decyzję, która z początku wzburzyła użytkowników Ubuntu – dystrybucja od wersji 18.04 miała zbierać dane o użytkowniku, jego zwyczajach i konfiguracji sprzętowej jego komputera. Po kwietniowej premierze nastroje były już lepsze – okazało się bowiem, że telemetria w wydaniu Canonicala powinna być… kanoniczna.

Tak dane o swoich użytkownikach zbiera Ubuntu. Czy można prościej i bardziej przejrzyście?
Ale na zbieraniu danych się nie kończy – Canonical chce się nimi także dzielić, co może stanowić bezcenną krynicę wiedzy dla deweloperów. Jak zapowiedział w maju Will Cooke, w planach jest nawet utworzenie całego serwisu, w którym zanonimizowane dane z telemetrii będą ogólnodostępne. Zanim to się jednak ziści, otrzymaliśmy coś na zachętę – na oficjalnym blogu Ubuntu ten sam Will Cook opublikował raport sporządzony na podstawie danych zbieranych przez Ubuntu.

Pierwszą informacją, jaką podzielił się Cooke jest odsetek użytkowników, którzy w ogóle zgodzili się na zbieranie danych – to jest wszak nieobligatoryjne i zgodę bądź jej brak można wyrazić już podczas instalacji. Na telemetrię w Ubuntu godzi się 67% użytkowników desktopowej wersji dystrybucji. Nie ma już tutaj kolejnych rozróżnień, bo w przeciwieństwie do Windowsa telemetria w Ubuntu jest włączona lub wyłączona, bez ustawień pośrednich czy przełączników

Najczęściej instalacja Ubuntu trwa 18 minut, choć zdarzyły się maszyny, na których system postawiono w 8 minut.
Jeśli użytkownik wyraża zgodę na zbieranie danych, to telemetria działa już podczas instalacji systemu operacyjnego. Dowiadujemy się dzięki temu, że średnio instalacja Ubuntu na dysku twardym trwa 18 minut. Nieźle, a przecież ma być jeszcze lepiej – Cooke zapowiedział w maju, że trwają prace nad nowym instalatorem wykorzystującym dorobek curtina oraz frameworka Electron. W rezultacie instalacja ma przebiegać jeszcze sprawniej, choć już dziś zebrano dane o maszynach, na których Ubuntu postawiono w mniej niż 8 minut.

Pozostając jeszcze przy samej instalacji Ubuntu 18.04, warto przytoczyć dane, według których stosunek aktualizacji z poprzednich wersji do nowych instalacji wynosi 1 do 4, choć faktyczny stan rzeczy zniekształca tu fakt, że Bionic Beaver był wydaniem z początku dość zabugowanym, przez co komunikaty o możliwej aktualizacji systemu były wyświetlane na maszynach ze starszą wersją dopiero po premierze 18.04.1. Sukcesem okazał się natomiast tryb minimalnej instalacji – skorzystało z niego ponad 15% użytkowników.

Opcje instalacji bez zaskoczeń – ponad 90% użytkowników decyduje się na pobieranie aktualizacji podczas instalacji, ponad połowa wybiera instalację oprogramowania własnościowego, zaś nieco ponad 28% wybiera autologowanie.
Canonical zbiera również informacje na temat partycjonowania dysku – 53% użytkowników decyduje się tutaj na pełne wymazanie dysku i świeżą instalację Ubuntu, ręcznie dysk partycjonuje niecałe 22%. Cooke zapowiedział jednak, że zróżnicowanie jest tu na tyle duże, że w instalatorze Ubuntu na pewno pozostanie możliwość ręcznego partycjonowania, a nawet wprowadzone zostaną zmiany, które uproszczą i przyśpieszą ten proces.

Dalej Cooke przechodzi do danych dotyczących konfiguracji systemu i specyfikacji sprzętowej maszyn, na których zainstalowano Ubuntu. Są to jednak niestety dane bardzo ogólnikowe – o procesorach wiemy na przykład jedynie tyle, że w zdecydowanej większości maszyn występuje jeden. Jeśli chodzi o RAM, to najczęściej do dyspozycji jest go 4 lub 8 GB, rzadziej 2. Zdarzają się wciąż instalacje na maszynach z gigabajtem RAM-u, ale odnotowano także kombajn z… 128 GB! Mało szczegółów otrzymaliśmy także o grafice – niewielu użytkowników Ubuntu korzysta z wielu kart graficznych, podobnie rzadko zdarza się wykorzystywanie wielu monitorów. Czyżbyśmy instalowali Ubuntu przede wszystkim na laptopach?

1920×1080, potem 1366×768 i... 800×600. 4K do użytkowników Ubuntu jeszcze nie dotarło, bo i po co.
Na to wygląda, wskazują na to najpopularniejsze rozdzielczości ekranu. Króluje FullHD, tuż przed 1366×768 pikseli – rozdziałką nieśmiertelną i najpopularniejszą właśnie na niedrogich laptopach z ekranem o proporcjach 16:9. Co ciekawe, trzecią najpopularniejszą rozdzielczością wcale nie jest 4K czy popularne na starych monitorach CRT 1024×768, lecz… 800×600. Czyżby to z winy wszystkich maszyn, na których Ubuntu jest, lecz go nie widać, jak na przykład biletomatów?

Na koniec Cooke zostawił popularność ze względu na położenie geograficzne. Trzeba tu jednak zaznaczyć, że jest ono ustalane nie na podstawie np. IP, lecz ustawień regionu w instalatorze. To zapewne dlatego dość nieoczekiwanie Ubuntu najwięcej użytkowników ma w kraju, gdzie synonimem laptopa często jest MacBook – w Stanach Zjednoczonych. Lokalizacja ustawiona USA jest domyślną podczas instalacji. Dalej plasuje się Brazylia, Indie, Chiny i Rosja.

...

Majac dane powinni je chronic. Obawiam sie atakow i wrogiego przejecia.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum Religia,Polityka,Gospodarka Strona Główna -> Wiedza i Nauka Wszystkie czasy w strefie EET (Europa)
Idź do strony Poprzedni  1, 2, 3  Następny
Strona 2 z 3

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach


fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
cbx v1.2 // Theme created by Sopel & Programy