Forum Religia,Polityka,Gospodarka Strona Główna
Linux
Idź do strony 1, 2, 3  Następny
 
Napisz nowy temat   Odpowiedz do tematu    Forum Religia,Polityka,Gospodarka Strona Główna -> Wiedza i Nauka
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 19:14, 15 Mar 2018    Temat postu: Linux

Gnome 3.28 w linuksowym środowisku

Nowa wersja popularnego, linuksowego środowiska graficznego GNOME jest już gotowa. Wydanie 3.28 przynosi ze sobą wiele praktycznych nowości funkcyjnych, jak i upiększenia, zwiększające przyjemność korzystania z komputera.
Popularne linuksowe środowisko graficzne znów wypiękniało. Oficjalnie ukończono GNOME 3.28, co jest owocem sześciu miesięcy prac – czy smakowitym?
Co nowego w GNOME 3.28?
GNOME w wersji 3.28 (o nazwie kodowej „Chongqing”) zawiera kilka istotnych nowości. Ulepszeń doczekały się między innymi aplikacje Kalendarza i Kontaktów, program do przeglądania zdjęć pozwala wreszcie wygodnie importować dane z zewnętrznych nośników (i organizować je w albumach), a w menedżerze pojawiła się możliwość oznaczania plików i folderów jako ulubione.
GNOME 3.28 pliki
Aplikacja Totem zaczęła obsługiwać filmy MJPEG, a domyślny odtwarzacz muzyczny otrzymał pełną obsługę HiDPI i modyfikowania list odtwarzania metodą przeciągnij-i-upuść. Nowy program Monitor (w wersji beta) ułatwia z kolei diagnozowanie i rozwiązywanie problemów z wydajnością i pojemnością.
GNOME 3.28 Monitor
Jedną z nowości jest również automatyczne pobieranie systemów operacyjnych w aplikacji Boxes służącej do pracy z maszynami wirtualnymi. Krótko mówiąc: wystarczy wybrać interesujący nas OS, a program sam go pobierze i zainstaluje. Menedżer zadań ma zaś zaktualizowany widok zadań.
GNOME 3.28 Boxes
Od razu rzuca się w oczy również inna zmiana – z pulpitu zniknęły ikony. Do tego podstawowy font został zmieniony w taki sposób, by nie tylko lepiej się prezentował, ale też był wygodniejszy w czytaniu. Przeprojektowana została także klawiatura ekranowa – przede wszystkim po to, by korzystanie z niej było bardziej intuicyjne.
GNOME 3.28 UI
Twórcy zwracają również uwagę na poprawioną współpracę z urządzeniami wykorzystującymi interfejsy Thuderbolt 3 i Bluetooth LE, a także na lepszą obsługę środkowego przycisku myszy i pomniejsze zmiany w ustawieniach, dzięki którym korzystanie z komputera ma być wygodniejsze.
GNOME 3.28 profil
Dodajmy na koniec, że GNOME 3.28 będzie domyślnym środowiskiem graficznym w Ubuntu 18.04 LTS „Bionic Beaver”. To rozwiązanie znajduje również zastosowanie między innymi w openSUSE i Fedora.
Źródło: Softpedia, GNOME

...

To cieszy. Przy okazji warto przypomniec o legendarnym Linuxie. Nie jest to bynajmniej jakis jeden program ale cale srodowisko. Czyli olbrzymia ilosc wytworow. Popieramy!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 20:45, 24 Mar 2018    Temat postu:

5 dystrybucji Linuxa do zadań specjalnych
Jacek Tomczyk 24 marca 2018 1 komentarz Facebook Twitter
Poprzednio prezentowaliśmy najpopularniejsze dystrybucje Linuxa. Tym razem opisujemy 5 systemów operacyjnych przeznaczonych do konkretnych zadań. Korzystają one z bogatej biblioteki programów przygotowanych przez społeczność open-source i często są wspierane przez firmy finansujące rozwój wolnego oprogramowania.

Kali Linux to następca BackTracka (graf. Kali Linux)
1. Kali Linux

Oparty na Debianie Kali Linux jest przeznaczony szczególnie dla osób, które chcą przeprowadzać tzw. testy penetracyjne. Domyślnie zainstalowano w nim ponad 600 programów przydatnych między innymi do monitorowania sieci. W tym Wireshark do analizowania pakietów, łamacz haseł John the Ripper, służący do skanowania portów Nmap, czy oparty na projekcie Metasploit Armitage.

Najnowszą wersję 2018.1 można pobrać ze strony projektu.




Parrot Security OS sprawdza się szczególnie do sprawdzania bezpieczeństwa usług w chmurze (graf. Parrot Security OS)
2. Parrot Security OS

Dystrybucja szczególnie przyda się do testowania zabezpieczeń usług w chmurze. Podobnie jak Kali Linux, znajdziemy w nim przydatne narzędzia do monitorowania sieci. Parrot Security OS jest oparty na Debianie, a jego twórcy szczególną uwagę skupiają na prywatności. Od razu po instalacji znajdziemy w nim również skonfigurowane środowisko programistyczne. Dostępna jest również wersja desktopowa bez zaawansowanych narzędzi, a także edycja przeznaczona do budowania internetu rzeczy.

Parrot Security OS dostępny jest do pobrania w kilku wersjach.




CentOS to rozwijana przez społeczność wersja Red Hata przeznaczona dla serwerów (graf. CentOS)
3. CentOS

CentOS jest powszechnie stosowany w centrach danych. Community Enterprise Operating System to tworzona przez społeczność bezpłatna alternatywa dla komercyjnego Red Hat Enterprise Linux. Firma Red Hat od 2014 roku wspiera finansowo przedsięwzięcie. Co prawda platforma oparta jest na RHEL, jednak pracujący nad nią zespół jest całkowicie niezależny.

Aktualną wersję CentOS można pobrać ze strony projektu.




Raspbian to wersja Debiana zoptymalizowana pod komputery Raspberry Pi (fot. Raspberry Pi)
4. Raspbian

Jak sama nazwa wskazuje, jest to specjalnie przygotowana dystrybucja Debiana dla mikrokomputerów edukacyjnych Raspberry Pi. Wykorzystuje środowisko graficzne PIXEL, które jest zmodyfikowanym LXDE. W systemie operacyjnym zainstalowany jest program Mathematica i specjalna wersja gry Minecraft o nazwie Minecraft Pi. Raspbian jest co prawda zoptymalizowany do działania na platformie Raspberry Pi, ale można też pobrać wersję na komputery klasy PC i Mac.

Raspbiana można pobrać ze strony Raspberry Pi.


5. Ubuntu Core

System operacyjny wspierany przez firmę Canonical doczekał się wielu wersji. Obok tych najbardziej znanych, przeznaczonych na desktopy, stworzono także wersję do budowania internetu rzeczy. Ubuntu Core pozbawiony jest interfejsu graficznego i wykorzystuje system pakietów o nazwie Snaps. Celem systemu jest zapewnienie komunikacji pomiędzy poszczególnymi urządzeniami w sieci. Jest stosowany między innymi w dronach, czujnikach montowanych w samochodach i inteligentnych budynkach.

Ubuntu Core udostępniony jest na stronie obok innych wersji. | CHIP

..

Linux bardzo sie rozwinal! Jest duzo wersji.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 11:33, 03 Kwi 2018    Temat postu:

Barcelona wybiera Linuxa i open soruce
Przez Wojciech Bałaban -3 kwietnia 20180

Niech żyje open source

Hiszpańska gazeta El Pais donosi, że miasto Barcelona przygotowuje się do przeniesienia systemów administracyjnych na otwarte oprogramowanie. Pierwszym krokiem ma być wymiana wszystkich programów na odpowiedniki open source, a ostatecznie przeniesienie się z systemu Windows na darmowego Linuxa. Do końca roku 70% oprogramowania pochodzić będzie z otwartych źródeł, a w pełni plan ma zostać zrealizowany pod koniec wiosny 2019 roku.

Same korzyści



Żeby to osiągnąć, miasto zamierza rozpocząć outsourcing projektów IT skierowany do lokalnych małych i średnich przedsiębiorców. Plan zakłada także zatrudnienie 65 nowych programistów, których zadanie będzie polegało na budowie potrzebnego, niedostępnego za darmo oprogramowania. Przykładem jest internetowa platforma, dzięki której małe przedsiębiorstwa będą mogły uczestniczyć w przetargach publicznych.

Poprzez swoje działania, Barcelona wpisuje się w ruch „publiczne pieniądze – publiczny kod„, zgodnie z którym oprogramowanie wytworzone za publiczne pieniądze, powinno być dostępne za darmo dla jego obywateli. Urzędnicy nie ukrywają, że przejście na oprogramowanie open source pozwoli zaoszczędzić także sporo pieniędzy.

...

Brawo! Po to stworzono Linuxa aby sluzyl wszystkim! Brawo Katalonia! Widzicie ze moge byc dumny ze ich popieram! Trzeba rozwijac Linux!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 17:15, 03 Kwi 2018    Temat postu:

Adam Golański
@eimi
To mało ekscytujące wydanie, nawet w oczach samego Linusa Torvaldsa, który nie bacząc na połączenie Pierwszego Kwietnia i świąt Wielkiej Nocy wydał Linuksa 4.16. Znacznie ciekawsze rzeczy czekają na nas w 4.17, ale i tak warto skupić się na dojrzałych owocach ponad dwóch miesięcy pracy linuksowych deweloperów.

Linux 4.16 to niemal 15 tys. commitów, ponad 12 tys. zmienionych plików, ponad 25 MB kodu źródłowego. W tych wszystkich zmianach najważniejsze są dłuższy czas pracy urządzeń zasilanych bateryjnie, łatka na pierwszy wariant ataku Spectre, lepsza praca linuksowych gości w VirtualBoksie, możliwość indywidualnego szyfrowania maszyn wirtualnych pod hiperwizorem KVM na procesorach AMD, oraz zwiększenie bezpieczeństwa kernela poprzez domyślne włączenie opcjonalnych dotychczas zabezpieczeń.

REKLAMA

Dłuższa praca z notebookiem
Nowa opcja konfiguracji kernela pozwala wreszcie na ustalanie polityk LPM (ATA Link Power Management). Pozwala to na czipsetach Intela kontrolować oszczędzanie energii przez dyski, zapewniając zmniejszenie jej zużycia o 1-1,5 W na jałowym biegu. Pozwala to wydłużyć pracę przeciętnego notebooka o nawet godzinę.

Wcześniej próby takiej kontroli na Linuksie kończyły się źle, najczęściej utratą danych. Jednak nowy programowalny tryb oszczędzania DIPM (Device Initiated Power Management) pozwolił na obejście tych problemów. Wykorzystano doświadczenia prowadzone przez Intela na Windowsie, konfigurując polityki ALPM dokładnie tak samo, jak konfiguruje je oficjalny intelowy sterownik na systemy Microsoftu. Teraz opiekunowie kerneli w ramach danej dystrybucji mogą po prostu nakazać automatyczne włączenie DIPM – przynajmniej na laptopach z mobilnymi czipsetami Intela. Pierwszą dystrybucją, która ma zapewnić wsparcie tego rozwiązania będzie Fedora 28.

Na wydłużenie czasu pracy urządzeń zasilanych bateryjnie wpłynie też druga opcja pozwalająca na automatyczne włączanie mechanizmu usypiania łączności Bluetooth, gdy tylko jest to możliwe. Do tej pory takie usypianie było możliwe tylko po ręcznej aktywacji. Teraz włączać będzie to sam kernel, przy okazji obniżając zużycie energii przez sam kontroler USB i pozwalając procesorowi na głębsze stany uśpienia. Według autora tego rozwiązania, pozwoli ono obniżyć zużycie energii o przynajmniej 0,4 W. Wbrew pozorom nie jest to mało, ultralekkie laptopy na jałowym biegu są dziś przecieć w stanie pobierać 5 W.

Spectre mniej straszne
Nowy kernel skuteczniej i bez takich strat w wydajności chroni przez pierwszym wariantem ataku Spectre (Bounds Check Bypass). Znaleziono potencjalnie podatne na Spectre fragmenty kodu i przepisano je tak, aby uniemożliwić spekulatywne wykonywanie, poprzez wywoływanie specjalnie do tego celu stworzonych makr. Teraz odczytanie zawartości pliku sys/devices/system/cpu/vulnerabilities/spectre_v1 zwraca ciąg __user pointer sanitization.

Prawdopodobnie na tych łatkach się nie skończy, poszukiwane są kolejne miejsca kernela mogące zostać zaatakowane przez Spectre, powstać ma opensource’owe narzędzie do automatycznego wskazywania takich lokalizacji.

Jeśli chodzi o drugą wersję ataku Spectre (Branch Target Injection), to wciąż korzysta się z techniki Return Trampoline (retpoline), która choć sprawdzała się w większości scenariuszy, zawodziła w przypadku wirtualizacji. W kernelu 4.16 retpoline zostało nieco ulepszone, wykorzystywane są też niektóre funkcje IBC (Indirect Branch Control), wprowadzone po ostatnich aktualizacjach mikrokodu procesorów Intela i AMD.

IBC zostało w całości przyjęte przez Windowsa, mimo jego poważnego wpływu na wydajność systemu, tymczasem większość linuksowych dystrybucji wolała trzymać się mniej kosztownej retpoline, mimo tego, że nie zapewniała ona bezpiecznej wirtualizacji i była niewystarczająca dla procesorów Skylake i późniejszych generacji. Teraz dzięki selektywnemu wybraniu niektórych mechanizmów IBC (dostępnych nawet bez wgrania mikrokodu) Linux eliminuje znane słabości repotline i pozwala bezpiecznie zwirtualizować Windowsa. Dodatkowo za pomocą jednego z mechanizmów z IBC chroni teraz też przed wymuszeniem zrzutu obrazu pamięci w razie awarii programu – w zrzutach takich może się pojawić wiele wrażliwych danych.

Nie oznacza to, że Spectre przestało być problemem – przykładowo Red Hat nie jest w ogóle przekonany do retpoline i od początku w RHEL-u stosuje wyłącznie zabezpieczenie IBC. Wciąż też pozostaje sporo do zrobienia w zakresie optymalizacji łatek nie tylko przeciw Spectre (szczególnie na innych niż x86-64 architekturach) ale też przeciwko Meltdown. Pozostają też problemy z 32-bitowymi systemami uruchamianymi na 64-bitowych procesorach, gdzie wydajność spadła najbardziej, a zabezpieczenia przed Meltdown wciąż nie wprowadzono. Niestety minie jeszcze sporo czasu, zanim deweloperzy będą mogli przestać się przejmować 32-bitową architekturą x86.

Domyślnie bezpieczniej
Oprócz zabezpieczeń przed Meltdown i Spectre, zadbano też o inne sprawy w tej dziedzinie. Wprowadzono od dawna rekomendowaną blokadę dostępu do pamięci fizycznej przez urządzenie /dev/mem.

Automatycznie jest także aktywowana ochrona stosu (Stack Protector), przynajmniej dla architektur i kompilatorów które to wspierają. Poczyniono także zmiany mające na celu zabezpieczenie wymiany danych między kernelem a przestrzenią użytkownika.

VirtualBox bez dodatków
Domyślny kernel 4.16 zawiera już wszystko co potrzeba, aby uruchomione w VirtualBoksie linuksowe maszyny wirtualne od razu mogły korzystać z akceleracji grafiki 3D, obsługiwały integrację schowka, a także działały w trybie zintegrowanym, w którym aplikacje systemu gościa wyświetlane są w okienkach na pulpicie gospodarza.

Wciąż trwają prace nad ulepszeniem jakości sterownika graficznego Vboxvideo, a także poprawieniem działania sterownika Vboxsf, pozwalającego na integrację systemów plików między gościem a gospodarzem. Gdy prace te zostaną ukończone, uruchamianie zwirtualizowanych linuksowych systemów będzie znacznie łatwiejsze i wygodniejsze – nie trzeba będzie kompilować specjalnych modułów do kernela, koniecznych dziś do wykorzystania wszystkich możliwości wirtualizacji.

Wirtualizacja grafiki na Intelu
Zmiany w sterownikach grafiki Intela pozwolą wreszcie wykorzystać technologię GVT-g, która pozwala przypisywać maszynom wirtualnym mechanizmy sprzętowej akceleracji grafiki dostępne systemowi-gospodarzowi. W teorii działało to już od Linuksa 4.8, ale nie było sposobu na efektywne przesłanie obrazu stworzonego w systemie-gościu do gospodarza. Teraz taki sposób powstał – nowa ścieżka przekierowania grafiki wykorzystuje współdzielenie buforów z bezpośrednim dostępem do pamięci.

Dzięki tej nowej ścieżce kompozytor grafiki na hoście będzie mógł łatwo wykorzystać obraz z maszyny-gościa w okienku na swoim pulpicie, tak samo jakby np. korzystał z grafiki 3D. Można w ten sposób też przesłać obraż bezpośrednio na drugi monitor w trybie pełnoekranowym, a nawet zdalnie po sieci do zdalnego systemu z wykorzystaniem protokołu Spice.

Całe rozwiązanie działa już na hiperwizorze KVM z odpowiednim zmodyfikowanym Qemu. W ciągu najbliższych miesięcy powinno stać się stałą częścią linuksowej wirtualizacji. Już teraz mówi się o wykorzystaniu tego do obsługi wirtualnych pulpitów czy strumieniowania gier z chmury.

Sieci i dyski
Sporo się dzieje w zakresie ulepszania popularnego systemu plików XFS. Mechanizmy odwrotnego mapowania i referencyjnejgo linkowania przestały być eksperymentalne. By zadziałać, potrzebują uaktualnionych narzędzi do obsługi systemu plików, ale testy już pokazują, że skopiowanie pliku z opcją --reflink pozwala zaoszczędzić mnóstwo czasu: zamiast kopiować zawartość pliku, XFS tworzy jedynie nowy wpis w systemie plików z kopią metadanych, wskazujących na ten sam blok danych – tak jak to jest np. w systemach ZFS i Btrfs. Wciąż jako eksperymentalny pozostaje mechanizm automatycznych napraw systemu plików bez konieczności odmontowywania partycji.

Protokół CIFS używany w windowsowych sieciach lokalnych obsługuje teraz zasoby udostępniane po najnowszym SMB3, w których dane są rozprowadzane poprzez rozproszony system plików (DFS). Pojawiło się też eksperymentalne wsparcie dla SMB3 Direct, pozwalające klientowi bezpośrednio czytać i pisać na wyznaczonych obszarach pamięci serwera poprzez mechanizm zdalnego bezpośredniego dostępu (RDMA). Pozwala to na bardzo szybką komunikację między klientem i serwerem, praktycznie bez narzutów.

Na pewno też Linux 4.16 powinien znacznie przyspieszyć przy wszystkich operacjach na małych obciążeniach I/O. Zmiana w kodzie obsługującym pole i_version dla i-węzłów (czyli struktur opisujących pliki w systemie) sprawiła, że w popularnym benchmarku FIO uzyskano wynik o 244% lepszy niż przed zmianą. Zmiana jest naprawdę trywialna: i_version było zwiększane o 1 przy każdej zmianie danych i-węzła czy metadanych. Jednak ta inkrementacja do niczego nie była potrzebna, i teraz po zakończeniu tej bezsensownej aktualizacji pola, operacje odczytu i zapisu dla wielu małych plików powinny gwałtownie przyspieszyć. Dobra to wiadomość, szczególnie biorąc pod uwagę spadki wydajności I/O po zastosowaniu łatek na Meltdown i Spectre.

Sterowniki
Nowy kernel obsługuje teraz karty GeForce 1030, lepiej sobie radzi ze wsparciem dla procesorów Cannon Lake Intela, dodaje wsparcie dla dziesiątków urządzeń z procesorami ARM (w tym popularnego Orange Pi R1), obsługuje nowe sterowniki dźwiękowe (w tym coraz częściej stosowany Allwinner A83T) i wprowadza sporo poprawek dla laptopów firm takich jak Dell, Lenovo i Asus.

Bardziej szczegółowe informacje na temat kernela 4.16 znajdziecie niebawem na kernelnewbies.org.

..

To jest wlasnie tworca Linuxa. Od imienia Linus jak latwo sie domyslic jest nazwa.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 23:58, 04 Kwi 2018    Temat postu:

Valve kocha Linuksa i SteamOS, chce by stały się konkurencją dla Windowsa
Strona główna Aktualności04.04.2018 13:39
Witryna sklepu Steam z depositphotos
eimi
Adam Golański
@eimi
Spore poruszenie w linuksowym światku wywołało usunięcie przez Valve pecetowych konsolek Steam Machines ze strony głównej sklepu Steam. Niektóre media przedstawiły to wręcz jako koniec nieudanego eksperymentu z Linuksem, zapowiadając że drugim krokiem Valve będzie po prostu zaoranie systemu SteamOS. Nic z tych rzeczy. Valve nie tylko nie zamierza z Linuksa rezygnować, ale obiecuje, że dalej będzie ciężko pracować nad uczynieniem z niego świetnej platformy dla gier i aplikacji.

Na łamach forum SteamCommunity głos zabrał Pierre-Loup Griffais, główny linuksowy programista Valve. Wyjaśnił, że link do „maszyn parowych” zniknął, bo faktycznie nie sprzedawały się one za dobrze. Nie należy z tego jednak wyciągać daleko idących wniosków. Prace nad Steam Machines przyniosły pewne rezultaty, za ich sprawą Valve wiele się dowiedziało na temat stanu linuksowego ekosystemu, problemów z jakimi muszą mierzyć się twórcy gier.

REKLAMA

Właśnie dzięki temu tyle wysiłku włożono w uczynienie Vulkana konkurencyjnym i dobrze wspieranym interfejsem grafiki, szczególnie na Linuksie i Windowsie, ale też ostatnio także na macOS-ie i iOS-ie. Dlatego też stworzono mechanizm Steam Shader Pre-Caching, który pozwala pominąć etap kompilowania shaderów na lokalnych maszynach w grach pisanych na Vulkana i zapewnić większą płynność działania.

Griffais zapewnił, że wciąż na rozwój Vulkana, jego sterowników i narzędzi deweloperskich będą poświęcane znaczące środki, ale to nie wszystko. W planach są inne linuksowe inicjatywy, o których za wcześnie jeszcze mówić, a zostaną one właśnie udostępnione społeczności przez SteamOS-a i pomogą całemu ekosystemowi Linuksa.

Nie są to czcze deklaracje. Mało kto zdaje sobie z tego sprawę, ale programiści Valve należą do głównych autorów projektu Mesa 3D – otwartej biblioteki funkcji graficznych, będącej implementacją OpenGL na różnych platfomach. Valve finansuje także prace nad ulepszeniem wirtualnej rzeczywistości na Linuksie, w szczególności zmianach w serwerze X.org i komponencie DRI3, używanym do komunikacji z kartą graficzną z pominięciem serwera X.

..

To nie milosc ze stronystrony tej firmy. To pistolet przystawiony do glowy Gatesa ze jak bedzie podskakiwal to wypali... Czyli przejdziemy na Linuxa. Kazdy Gatesa zna. Inni tez niech sie ucza. Robcie porty na Linuxa glownie gier. Bo to one sa motorem komputeryzacji. I pod nie sa komputery. Najtaniej od razu robic kompatybilnie z Linuxem.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 10:43, 10 Kwi 2018    Temat postu:

Teraz zainstalujesz gry i programy jednym kliknięciem na (niemal) każdym Linuksie
Strona główna Aktualności09.04.2018 15:56

eimi
Adam Golański
@eimi
Podstawową metodą dystrybucji oprogramowania na Windowsa były zawsze strony internetowe. Podstawową metodą dystrybucji oprogramowania na Linuksa były zawsze menedżery pakietów i zewnętrzne repozytoria. Z czasem Microsoft dorobił się repozytoriów i sklepu z aplikacjami. Teraz zaś Linux dostaje stronę internetową, z której jednym kliknięciem można instalować oprogramowanie. I to jaką stronę – nowa odsłona portalu Flathub to prawdziwy majstersztyk.

Pomimo niechęci Canonicala, forsującego swój własny format paczek snap, Flatpak wyrasta na najpopularniejszy format dystrybucji linuksowego oprogramowania niezależnego od poszczególnych dystrybucji. Wygrywa nie tylko za sprawą zalet technicznych, ale i wsparcia społeczności. Dzięki jej staraniom obsługę Flatpaka domyślnie zapewnia dziś Linux Mint, Fedora i Endless OS, a łatwo Flatpaka włączyć na Debianie, Ubuntu, RHEL-u, OpenSUSE, Archu i Manjaro, Gentoo, Solusie, Alpine Linuksie i Magei.

REKLAMA

Katalog oprogramowania Flathub.org
Katalog oprogramowania Flathub.org
Teraz popularność Flatpaka może wzrosnąć także wśród tzw. Zwykłych Użytkowników. O ile bowiem sam format uniwersalnych paczek z oprogramowaniem jest całkiem dobry, to jakość sklepu GNOME Software, używanego głównie do przeglądania zawartości repozytoriów Flatpaka pozostawia trochę do życzenia. Potrafi się on przycinać, nie zapewnia wygodnego filtrowania. Podobnie wygląda sprawa ze sklepem używanym w Linux Mincie, czy sklepem Ubuntu Store po zainstalowaniu niezbędnej wtyczki.

Zamiast korzystać z tych wbudowanych w dystrybucje narzędzi, lepiej jest skorzystać w przeglądarce z nowego webowego portalu Flathub.org. Wyróżnia się on ogromną szybkością działania – napisano go z wykorzystaniem coraz popularniejszego frameworku Angular. Cały kod źródłowy jest oczywiście dostępny na GitHubie, każdy więc może na jego podstawie uruchamiać webowe sklepy z linuksowymi aplikacjami.

Co najważniejsze, Flathub pozwala na instalowanie aplikacji w linuksowych dystrybucjach jednym kliknięciem myszki, bez konieczności przechodzenia do terminala. Oferowany w ten sposób zbiór oprogramowania jest całkiem pokaźny: możemy zainstalować zarówno wolne oprogramowanie (np. najnowsze wersje LibreOffice, GNU Octave, Audacity czy KDEnlive), jak i oprogramowanie własnościowe (np. Android Studio, Spotify, Steam czy Skype). Na liście znajdziemy też kilkadziesiąt gier.

Runescape – kliknij i zainstaluj popularnego MMORPG-a na niemal każdym Linuksie
Runescape – kliknij i zainstaluj popularnego MMORPG-a na niemal każdym Linuksie
Trudno właściwie cokolwiek zarzucić temu projektowi – działa szybko, robi to, czego można się po nim spodziewać, pozwala przeglądać oprogramowanie w kategoriach takich jak Popularne, Nowe, Wybór redakcji i Gry wybrane przez redakcję. Jeśli tylko uda się zmniejszyć rozmiar paczek Flatpak i zwiększyć spójność interfejsu zainstalowanych tak aplikacji z ustawieniami systemowymi, będzie to kolejny wielki krok dla Roku Linuksa na desktopie.

Kto wie, może nastąpi to wówczas, gdy na Windowsie i macOS-ie nie będzie można już więcej instalować oprogramowania ze stron internetowych, a jedynie z oficjalnych sklepów Microsoftu i Apple’a?

...

To cieszy! Raczej chyba o czas pobierania chodzi niz o jednoklikowa instalacje. Ale owszem skraca ona ogolny czas od poczatku do konca procesu zdobycia nowej gry.
Gry obecnie rzadza komputerami. Po to robi sie nowe aby uciagnely lepsze gry. Wojsko czy nawet medycyna sa nana drugim planie. Zreszta nie potrzebuja super grafiki np. Dlatego Linux musi ostro isc w gry. To zreszta dobre i tak. Ktoz nie lubi gier jesli lubi komputery i programy? Wszak po cos one sa. Czyli do grania marsz!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Pon 16:28, 16 Kwi 2018    Temat postu:

Adam Golański
@eimi
Większość oprogramowania używanego przez użytkowników komputerów osobistych i smartfonów to oprogramowanie własnościowe, niewolne. Oznacza to, że nie są oni właścicielami tego, co działa na ich sprzęcie. Otrzymali jedynie prawo do korzystania z niego na określonych warunkach opisanych w licencji towarzyszącej oprogramowaniu. Przekroczenie tych warunków oznacza złamanie warunków licencji i może nieść ze sobą określone konsekwencje cywilne, a nawet karne. Potocznie mówi się wówczas o „nielegalnym oprogramowaniu”, ograniczając sprawę do tzw. piractwa, ale jak się przekonacie, kwestia jest bardziej skomplikowana. Wcale nie chodzi tylko o nielegalne kopie. Prawa własności intelektualnej względem oprogramowania obejmują znacznie więcej kwestii niż tylko ich dystrybucja. Jeśli chcecie mieć pewność, że ich nie naruszacie… no cóż, musicie czytać towarzyszące własnościowemu oprogramowaniu licencje.

Z wielu różnych powodów ustawodawcy traktują oprogramowanie inaczej niż stoły czy krzesła. Gdyby producent krzesła dołączył do niego notkę zawierającą zakaz siadania na krześle np. osobom służącym w wojsku, wywołałoby to ogromne oburzenie. Tymczasem nikogo nie zdziwi, że w licencji towarzyszącej oprogramowaniu może znaleźć się zapis zakazujący używania go w celach wojskowych. Przykładowo, algorytmowi szyfrowania OCB towarzyszą zapisy, które pozwalają legalnie korzystać z niego każdemu w celach prywatnych, badawczych i związanych z implementacją oprogramowania… ale nie dotyczy to zastosowań militarnych. Autor najwyraźniej jest pacyfistą i nie chce, by jego praca w jakikolwiek sposób służyła zinstytucjonalizowanej przemocy.

REKLAMA

Czym jest licencja na oprogramowanie?
Czym więc jest licencja na oprogramowanie, że ma taką moc prawną? Z prawnego punktu widzenia jest instrumentem prawnym określającym, na jakich warunkach można korzystać z oprogramowania, w szczególności jak można je rozpowszechniać. W wypadku oprogramowania nie posiadającego licencji domniemywa się, że jego twórca takiej jak najbardziej liberalnej licencji udzielił, przenosząc je do domeny publicznej. Przykładem takiego domniemania dla pozbawionego licencji oprogramowania może być malware – dlatego też badacze mogą modyfikować próbki przechwyconych szkodników bez obawy, że ktoś ich pozwie np. o dekompilację kodu źródłowego.

Klasyczna EULA Microsoftu dla Windowsa XP: nie zgadzasz się, nie masz prawa zainstalować
Klasyczna EULA Microsoftu dla Windowsa XP: nie zgadzasz się, nie masz prawa zainstalować
Kiedy użytkownik pobiera lub instaluje oprogramowanie, jest zwykle proszony o wyrażenie zgody na przedstawione warunki licencjonowania – to tzw. EULA, czyli End User Licensee Agreement. Bez wyrażenia tej zgody użytkownik nie nabywa praw do korzystania z oprogramowania, a po wyrażeniu zostaje prawnie związany jej warunkami. Trzeba oczywiście pamiętać, że działa to tylko w zakresie dopuszczonym przez prawo cywilne danego kraju – zapisy licencyjne zawierające warunki naruszające zapisy prawa, np. odbierające konsumentom ich prawa, nie mogą być ważne.

Istotne jest to, że oprogramowanie jest licencjonowane, nie ma nic wspólnego z kwestią odpłatności za nie: nawet wolne i otwarte oprogramowanie jest licencjonowane, istnieje także własnościowe oprogramowanie, które jest zarazem niekomercyjne i dostępne za darmo. Opłaty, jakie niekiedy trzeba wnieść za uzyskanie licencji na oprogramowanie, to zupełnie inna, handlowa (a nie prawna) kwestia. Jeśli przekazanie licencji wiąże się z uiszczeniem płatności, wówczas oprogramowanie takie nazywamy komercyjnym. Z drugiej strony to, że oprogramowanie jest otwarte (czyli towarzyszy mu kod źródłowy), nie oznacza, że uzyskanie licencji na niego jest darmowe. Skomplikowane? Raczej tak. Poniższy diagram pozwoli lepiej zrozumieć, jak się ma do siebie oprogramowanie wolne, otwarte, własnościowe i komercyjne.

Wzajemne relacje kategorii licencji oprogramowania
Wzajemne relacje kategorii licencji oprogramowania
Licencjonowanie własnościowego oprogramowania
W wypadku oprogramowania wolnego sytuacja jest dobrze uporządkowana: istnieje pewna liczba licencji uznanych przez społeczność za wolne, pozwalających na używanie, kopiowanie i przerabianie oprogramowania w swobodny sposób (co nie oznacza że dowolny). W wypadku oprogramowania własnościowego, którym bliżej zajmujemy się w tym artykule, sytuacja jest bardziej skomplikowana. Licencje pisane są zwykle indywidualnie na potrzeby producenta przez prawników – przynajmniej w wypadku większych firm. Z mniejszymi bywa różnie, niekiedy zaglądając do EULA różnych własnościowych aplikacji mamy wrażenie, że zostały po prostu skopiowane z popularnych zapisów licencyjnych Microsoftu czy Oracle’a. Założenie jest proste: taka korporacja, jak Oracle ma na pewno bezpieczną i skuteczną EULA, więc skorzystajmy z tego, co zostało wymyślone. Co zabawne, sama treść takiej własnościowej licencji może być chroniona prawem autorskim.

Opcje licencyjne – na co zwrócić uwagę?
Zarówno producent czy twórca własnościowego oprogramowania, jak i użytkownik zdecydowany takie oprogramowanie używać, powinien być świadom praw użytkowania, jakie dobrze zrobiona licencja na własnościowe oprogramowanie powinna poruszać – jakie są konsekwencje dla użytkowników takich a nie innych zapisów. Przyjrzyjmy się tym najważniejszym:

Instalacja i używanie
Tutaj należy określić liczbę kopii oprogramowania, która może być zgodnie z warunkami licencji jednocześnie używana. Tu też można przedstawić ograniczenia dotyczące sprzętu, na jakim oprogramowanie może być uruchamiane.

REKLAMA

Przykładowo, normalnie Microsoft pozwala zainstalować i użytkować jedną kopię Windowsa na nabytą licencję, bez ograniczeń w kwestii typu urządzeń. Z kolei Apple pozwala na uruchamianie jednej kopii systemu macOS na jeden posiadany komputer marki Apple, oraz dwóch kopii macOS-a dodatkowo w środowiskach zwirtualizowanych dla celów testowych, programistycznych czy osobistych.

Rozpowszechnianie
Tutaj określa się warunki, na podstawie których dopuszczalna jest przez użytkownika (licencjobiorcę) dystrybucja oprogramowania. Możliwe są następujące opcje:

Zakaz rozpowszechniania, najczęstszy dla oprogramowania własnościowego – nie wolno rozpowszechniać ani plików binarnych ani kodu źródłowego. W wypadku oprogramowania serwerowego kod może być hostowany na serwerze (np. w ramach serwisu WWW) licencjobiorcy.
Zgoda na rozpowszechnianie plików binarnych – to opcja najczęściej stosowania przez własnościowe oprogramowanie shareware/freeware: użytkownik może swobodnie udostępniać pliki binarne (uruchamialne) innym użytkownikom. Uwaga: nie wiąże się to z przekazaniem licencji: użytkownicy, którzy pozyskali takie pliki binarne, muszą sami pozyskać od producenta licencję, np. rejestrując się w jego serwisie internetowym.
Sublicencjonowanie – użytkownik oprogramowania samodzielnie może upoważnić inne osoby do korzystania z programu w zakresie przewidzianym przyznaną mu licencją. To ostatnie odróżnia sublicencję od korzystania z programu na podstawie dozwolonego użytku publicznego. Uwaga, sublicencjonowanie może dotyczyć zarówno plików binarnych jak i kodu źródłowego – to ostatnie często jest stosowane w odniesieniu do własnościowego oprogramowania działającego na serwerach.
Dzieła pochodne
Przyznanie posiadaczom licencji prawa do tworzenia dzieł pochodnych na podstawie używanego oprogramowania oznacza danie im prawa do dopasowania oprogramowania do własnych potrzeb. Odmówienie tego prawa oznacza, że mogą korzystać z oprogramowania jedynie w oryginalnej formie – na przykład nie wolno im tworzyć tłumaczeń czy rozszerzeń programy czy gry.

Rozpowszechnianie dzieł pochodnych
Jeśli twórca oprogramowania zezwoli na tworzenie dzieł pochodnych, musi zarazem określić warunki dystrybucji takich dzieł – dostępne są tutaj takie same opcje jak dla rozpowszechniania samego oprogramowania, choć nie wszystkie kombinacje mają większy sens. Zwykle stosuje się tu zakaz rozpowszechniania (modyfikacje można robić tylko na własne potrzeby), albo pozwala na sublicencjonowanie z rozpowszechnianiem kodu źródłowego (dla np. paczek map czy kampanii dla gier).

Atrybucja (przypisanie)
Jest to wymóg poświadczenia, że oprogramowanie jest używane. Twórca oprogramowania może np. określić, że wymaga umieszczenia linku do jego strony internetowej w stopce serwisu korzystającego z napisanego przez niego skryptu, albo wymagać obecności dopisku „stworzone za pomocą” na wykresach generowanych przez jego specjalistyczne narzędzie.

Wykorzystanie w celach zawodowych
Zakupienie licencji na oprogramowanie wcale nie oznacza, że możemy swobodnie z niego korzystać do celów zawodowych. Producent może tego zakazać, oferując np. zarazem wersję droższą, dla której taki „komercyjny” użytek jest dozwolony.

REKLAMA

Tworzenie kopii zapasowych
Tutaj producent oprogramowania może określić warunki dopuszczające tworzenie przez licencjobiorcę (na jego własne potrzeby) kopii nośników nabytego oprogramowania i zakres wykorzystania tych kopii. Prawa większości krajów domyślnie dopuszczają prawo sporządzenia jednej takiej kopii, którą wykorzystać można tylko do ponownego zainstalowania oprogramowania. Rzadko kiedy producenci oprogramowania próbują ograniczyć te prawa.

Przenaszalność licencji
To prawo licencjobiorcy do przeniesienia jej na inną osobę czy podmiot prawny, czy to w formie odsprzedaży czy odstąpienia. Również to jest dość kontrowersyjna kwestia: ograniczenie w tym zakresie może, ale nie musi wiązać się z naruszeniem praw konsumenckich. Oczywiście pamiętamy, że prawa konsumenckie nie chronią przedsiębiorców, kupujących oprogramowanie „na firmę”.

Wsparcie
Oprogramowanie może być oferowane bez żadnego dodatkowego wsparcia, użytkownik może jedynie oczekiwać, że będzie działało tak jak to zadeklarowano. Producent oprogramowania może jednak zadeklarować warunki dodatkowego wsparcia, obejmującego np. infolinię z pomocą techniczną.

Ograniczenia badawcze
Producent oprogramowania może zakazać prób badania oprogramowania związanych z odwrotną inżynierią, za pomocą środków takich jak dekompilacja czy dezasemblacja. Uwaga, zakazy takie są nieskuteczne w większości państw, o ile prace badawcze nie służą działalności konkurencyjnej, a np. uzyskaniu interoperacyjności z oprogramowaniem. Nawet w Stanach Zjednoczonych są zaś całkowicie dopuszczalne techniki „czystej” odwrotnej inżynierii, w której odtwarza się kod na podstawie znanej funkcjonalnej specyfikacji oprogramowania.

Znaki towarowe
Jeśli oprogramowanie zawiera znaki towarowe zastrzeżone przez producenta (np. logotyp firmy), a chce on zakazać licencjobiorcom korzystania z nich, musi to otwarcie określić w licencji.

Patenty
Jeśli oprogramowanie używa posiadane lub licencjonowane przez producenta opatentowane rozwiązania, należy przyznać licencjobiorcom prawo do korzystania z nich w ramach otrzymanej licencji na oprogramowanie – w przeciwnym wypadku mogliby oni ponieść konsekwencje naruszenia praw patentowych.

REKLAMA

Inne licencje
Jeśli oprogramowanie zawiera w sobie komponenty licencjonowane na innych warunkach (np. na permisywnych licencjach Open Source), należy wszystkie te komponenty i rodzaje zastosowanych dla nich licencji wyszczególnić.

Pułapki własnościowego oprogramowania
Mamy nadzieję, że przedstawione w tym artykule informacje pomogą Wam w zrozumieniu natury własnościowego oprogramowania i kwestii związanych z możliwymi naruszeniami zapisów licencji. Jest to szczególnie istotne w kontekście oprogramowania takiego jak shareware czy trialware.

Choć bowiem dotychczasowe orzecznictwo pokazuje, że w naszym kraju naruszenia nie wiążące się z umyślnym osiągnięciem korzyści majątkowej nie są ścigane z urzędu jako naruszenia przepisów prawa autorskiego i kodeksu karnego (art. 278 par. 2), to nie oznacza to, że uniemożliwia to twórcom oprogramowania dochodzenia swoich praw w procesie cywilnym. I wcale nie musi to dotyczyć wyłącznie kwestii rozpowszechniania – równie dobrze może chodzić o niewłaściwe wykorzystanie, np. zastosowanie programu w miejscu pracy, albo niezastosowanie należytej atrybucji.

Radzimy więc: czytajcie licencje końcowego użytkownika (EULA) – a jeśli znajdziecie w nich coś, co się Wam nie podoba, zastanówcie się, czy nie lepiej skorzystać z Wolnego Oprogramowania, czyli takiego, którego, którego licencja znalazła się na liście utrzymywanej przez Free Software Foundation, lub też Otwartego Oprogramowania, korzystającego z licencji zaakceptowanych przez Open Source Initiative. Choć dla końcowego użytkownika przyznane przez nie prawa mogą wydawać się takie same, to nie są one tym samym. O różnicach i ich znaczeniu opowiemy w kolejnym artykule z serii Licencjonowanie Oprogramowania.

Programy Biznes Porady

..

Tak oni wam daja,,, prawo do uzytkowania". Nie macie nawet wlasnosci za ciezka kase! Zreszta czesto to co wypisuja w licencji jest czesto niezgodne z prawem. Nie moga tego zakazac. Ja jednak zawsze szukam gdy cos potrzebuje programow gnu. I praktycznie wszystko jest!
Przegladarka grafiki irfan. Rewelacja! Dzieki niej nawet mozna podmieniac grafiki w Heroes IV! Co jest ewnementem ale bez niej nie dal bym rady.
Dla grafikow Gimp. Znakomity
Do tekstow textedit i notebook. Znakomite. Przydaja mi sie do wszystkiego.
Ba nawet jak chcecie robic czcionki tak! Literki. Fontforge! Potezna machina do czcionek. Wszystko jest! Nie sprawdzalem co jest dla architektow czy urzedow ale na pewno jest!
W ogole jak ktos robil darmo trzeba korzystac!
Te produkty nie maja reklamy i tylko dlatego sa nieznane.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 16:45, 21 Kwi 2018    Temat postu:

Wybieramy najlepszą dystrybucję Linux
Przez MK - 20 kwietnia 20180
Facebook Twitter
Od czasu powstania pierwszej wersji w latach dziewięćdziesiątych darmowy system Linux zdążył rozpowszechnić się na miliony – a nawet miliardy – urządzeń na całym świecie. Jego popularność to idealny przykład sukcesu wolnego i otwartego oprogramowania. Od zeszłego roku Linux może się nawet pochwalić byciem najpopularniejszym systemem operacyjnym na świecie, a to za sprawą faktu, że znany wszystkim Android jest jedną z jego bardzo licznych wersji. No właśnie – świat Linuksa jest bardzo różnorodny, a wybór odpowiedniej dystrybucji może być przytłaczający. Warto przeznaczyć trochę czasu na poznanie zalet i wad różnych wariantów systemu Linux.

Na początek – dlaczego Linux?

Choć Windows zdecydowanie króluje wśród komputerów stacjonarnych, coraz więcej użytkowników rezygnuje z systemu Microsoftu. Wśród wad Windowsa wymienić można m.in. jego wysoką cenę (jeśli nie jest dołączany do kupowanego sprzętu), podatność na wirusy i ataki hakerskie, a także – zwłaszcza w przypadku najnowszej edycji – wiele wątpliwych decyzji Microsoftu w kwestii prywatności. Sama natura Linuksa rozwiązuje od razu pierwszy problem: wszystkie systemy oparte na jądrze Linux są w pełni darmowe, a ich kod źródłowy jest dostępny do wglądu dla każdego użytkownika.

Otwartość kodu powoduje z kolei, że użytkownicy mają możliwość zbadania i ewentualnego naprawienia wad systemu. Łatki przygotowywane przez użytkowników są następnie sprawdzane i często pojawiają się w nowszych wersjach jądra, dzięki czemu bardzo ciężko jest o pojawienie się niewykrytych luk w zabezpieczeniach. Oprócz otwartości, bycia darmowym oraz posiadania sprawniejszych zabezpieczeń, warto wspomnieć o kolejnej dużej zalecie Linuksa: jest nią możliwość dostosowania systemu do swoich potrzeb w praktycznie dowolny sposób. W internecie dostępne są tysiące przeróżnych dystrybucji, a każda z nich może znaleźć nieco inne zastosowanie lub też zwyczajnie spodobać się pewnym grupom użytkowników bardziej niż innym.

Co to właściwie jest dystrybucja Linuksa?

W przeciwieństwie do Windowsa czy macOS, Linux jest systemem bardzo zdecentralizowanym. Zamiast jednej wersji identycznej dla wszystkich użytkowników istnieją różne warianty przygotowywane przez różnych ludzi czy też organizacje. Dystrybucja Linuksa składa się z kilku podstawowych części: jądra Linuksa (jest ono mniej więcej takie samo w różnych wersjach systemu, jednak również może być modyfikowane), powłoki systemowej (w Windowsie – wiersz poleceń), narzędzi konfiguracyjnych, środowiska graficznego oraz zestawu aplikacji użytkowych. Wyróżniającą cechą jest często tzw. menedżer pakietów, czyli program pozwalający na instalację innych aplikacji. Zasadniczo każdy czytelnik po zdobyciu odpowiedniej wiedzy byłby w stanie złożyć z tych elementów własny system Linux.

Dla osób nowych w świecie Linuksa: Ubuntu lub Linux Mint

Przejście z dobrze znanego Windowsa na bardzo odmienny system może być dla wielu użytkowników nieco ciężka. Na szczęście dostępne są dystrybucje, które starają się znacznie usprawnić tę „przesiadkę”, skupiając się przede wszystkim na tym, żeby cały system po prostu sprawnie działał bez potrzeby konfigurowania go.

Jedną z najszerzej używanych dystrybucji jest Ubuntu, a za jego popularnością stoi między innymi łatwość używania. Dużo czasu przeznaczono na przygotowanie schludnego i przejrzystego interfejsu graficznego zwanego Unity. Zadbano także o automatyczne aktualizacje, dzięki którym sprzęt z Ubuntu może zawsze korzystać z najnowszych i najbezpieczniejszych wersji aplikacji. We wszelkich problemach, które może napotkać początkujący użytkownik, pomoże bardzo obszerna dokumentacja Ubuntu. Pomocna może okazać się także strona AskUbuntu, na której znajdziemy tysiące pytań i odpowiedzi na każdy temat związany nie tylko z Ubuntu, ale także ogólnie z Linuksem.

Ubuntu
Interfejs Linuxa Ubuntu
Utworzony w 2006 roku Linux Mint to kolejna propozycja dla początkujących użytkowników. Domyślne środowisko graficzne Cinnamon cechuje się podobnym do Windowsa rozkładem opcji i funkcji, co zdecydowanie ułatwi dostosowanie się do nowego systemu. Linux Mint to dystrybucja na tyle kompletna, że zazwyczaj po jej instalacji nie trzeba pobierać dodatkowego oprogramowania, jednak wciąż jest w stanie utrzymać dość mały rozmiar. Podobnie jak Ubuntu, Mint może pochwalić się dużą i pomocną społecznością.

Solidność i stabilność: Debian

Debian to jedna z najstarszych dystrybucji Linuksa – jego pierwsza wersja powstała w 1993, a więc zaledwie dwa lata po pojawieniu się najwcześniejszej wersji jądra Linux. W repozytoriach Debiana znajdziemy ogromną liczbę aplikacji. Niektóre z nich mogą mieć nieco starsze wersje, lecz wiąże się to z faktem, że zanim trafią do systemu są bardzo dogłębnie testowane. To czyni z Debiana idealną dystrybucję dla osób ceniących sobie stabilną, bezproblemową pracę systemu.

debian
Interfejs Linuxa Debian
Dla chcących więcej: Arch i Gentoo

Idealną okazją na głębsze poznanie działania systemu będą dystrybucje wymagające nieco więcej wkładu własnego użytkownika, takie jak np. Arch Linux czy Gentoo.

W przypadku Archa wyzwania zaczynają się już podczas instalacji – po uruchomieniu obrazu systemu widać tylko surowy wiersz poleceń, a konfiguracja systemu wymaga poznania odpowiednich komend. To pozwala na idealne dostosowanie końcowego efektu pod swoje potrzeby, a jednocześnie na naukę wewnętrznych struktur Linuksa. Na ArchWiki znajdziemy kompletną instrukcję instalacji, a także sporą liczbę artykułów wyjaśniających działanie poszczególnych elementów systemu. Informacje zawarte w ArchWiki oraz na forum Archa stanowią bogatą bazę wiedzy, która może się okazać przydatna także dla użytkowników korzystających z innych dystrybucji.

arch
Interfejs Linuxa Arche
Instalacja Gentoo przebiega podobnie jak Archa: możliwe jest jednak jeszcze większe dostosowanie systemu do swoich potrzeb, jako że jego komponenty muszą być manualnie skompilowane ze źródła. Dzięki temu Gentoo może być dobrym wyborem dla osób, które potrzebują zainstalować system na nietypowym sprzęcie, który wymaga pewnego dostosowania.

Dla estetów: Elementary Os

Elementary OS to zdecydowanie najlepiej wyglądająca dystrybucja Linuksa. Bardzo atrakcyjna powłoka graficzna użyta w Elementary OS nazywa się Pantheon, a jej design przypomina nieco macOS. Dedykowany instalator aplikacji AppCenter znacznie usprawni pobieranie nowych programów – nauka jego sprawnej obsługi może okazać się bardzo przydatna, ponieważ bazowa instalacja Elementary OS nie zawiera zbyt dużo domyślnych aplikacji.

Elementary OS
Interfejs Linuxa Elementary OS
Dystrybucje o węższych zastosowaniach

Jak już wspominaliśmy, w świecie Linuksa znaleźć można wersję systemu odpowiednią do każdego zastosowania. Warto wspomnieć np. o systemie dla graczy Steam OS – choć granie na Linuksie zawsze było problematyczne, od kilku lat powoli się to zmienia. Stworzona przez Valve platforma dystrybucji gier doczekała się dedykowanego systemu, w którym zadbano o szerokie wsparcie dla różnych kart graficznych, kontrolerów i innych sprzętów dla graczy. Oczywiście domyślnie zainstalowana jest aplikacja Steam. W 2015 roku wydano serię komputerów dla graczy Steam Machine, dla których właśnie przeznaczony jest Steam OS.

Skupienie na otwartości oraz bezpieczeństwie poskutkowało powstaniem wielu dystrybucji Linuksa, w których te dwa tematy się łączą. Osoby zainteresowane hakerstwem mogą na przykład skorzystać z systemu Kali Linux, który wyposażony jest w szereg narzędzi przeznaczonych do testowania zabezpieczeń i wykrywania luk. Jest to zatem ciekawa propozycja dla osób chcących zająć się bezpieczeństwem komputerów.

Linux Kali
Interfejs Linuxa Kali
Jeśli z kolei szukasz sposobu na zapewnienie sobie prywatności i anonimowości w internecie, idealnym wyborem będzie Tails. Warto wspomnieć, że z tej dystrybucji korzysta Edward Snowden, który udowodnił, że amerykańska Narodowa Agencja Bezpieczeństwa od lat zbierała na masową skalę dane użytkowników największych sieci społecznościowych. Wszystkie informacje przesyłane przez internet podczas korzystania z systemu Tails Linux są przekierowywane przez sieć Tor, dzięki czemu nie pozostaje żaden ślad prowadzący z powrotem do używanego komputera. Dostępny jest także zestaw kryptograficznych programów, dzięki którym można zabezpieczyć swoje maile i pliki.

....

Android to Linux? Nie wiedzialem! To zwyciestwo!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Pon 19:24, 23 Kwi 2018    Temat postu:

Ubuntu będzie wolne od wycieków pamięci GNOME, to wszystko była wina JavaScriptu
Strona główna Aktualności23.04.2018 12:11

eimi
Adam Golański
@eimi
Użytkownicy GNOME, prawdopodobnie najpopularniejszego dziś graficznego środowiska na Linuksie, od wielu miesięcy cierpią wskutek dziwacznego wycieku pamięci, który już po kilku godzinach pracy potrafi zająć sobie gigabajty RAM. I niewykluczone, że gdyby nie naciski ludzi z Canonicala, tak by jeszcze było długo – dla nich stabilność domyślnego dziś pulpitu Ubuntu to sprawa priorytetowa. Szczęśliwie można już powiedzieć, że wyciek został zatkany. Problem wyjaśnia w szczegółach deweloper innej korzystającej z GNOME dystrybucji, znanej pod nazwą Endless OS.

O problemach z wyciekiem pamięci w GNOME zrobiło się głośno po publikacji na łamach bloga OMG! Ubuntu, gdzie ostrzegano, że premiera Ubuntu 18.04 LTS tuż tuż, a tymczasem z domyślnym pulpitem GNOME 3.28 mamy poważny problem – wszelkie animacje interfejsu użytkownika znacząco zwiększają zużycie pamięci. Deweloperzy GNOME byli sprawy tej jednak świadomi już wcześniej, usterkę zgłoszono na GitLabie – bez jakichś konkretnych sugestii, co może być przyczyną. Nie wskazano też nikogo odpowiedzialnego za rozwiązanie. Niezadowoleni użytkownicy w mediach społecznościowych sugerowali, że to pewnie dlatego, że deweloperzy GNOME mają tak dużo RAM w swoich maszynach, że problemu nie zauważają.

REKLAMA

Pierwszy dokładnie problem opisał Carlos Garnacho – po długich zabawach z debuggerem stwierdził, że to jakiś problem z odśmiecaczem pamięci w powłoce GNOME Shell. Ta wskazówka nakierowała Georgesa Stavracasa z firmy Endless na właściwy trop – zachowanie odśmieczacza w GJS, wykorzystywanej przez GNOME przeróbce silnika JavaScriptu Mozilli SpiderMonkey.

heapgraph ujawnia wyciek pamięci
heapgraph ujawnia wyciek pamięci
Wygląda na to, że odśmiecacz GJS faktycznie brał się za odśmiecanie, kiedy był wyzwalany… tylko że w ogóle nie był wyzwalany. I wygląda na to, że powód wziął się z różnic w obsłudze odśmiecacza pamięci dla JavaScriptu i języka C. Silniki JavaScriptu śledzą potomne zależności między obiektami w pamięci. Zniszczenie obiektu pozwala na łatwe wyczyszczenie z innych pochodnych z niego obiektów. W wypadku C tak dobrze nie jest, obiekty nie śledzą swojego pochodzenia, jedynie podają, ilu mają właścicieli. Jeśli odśmiecacz pamięci z GJS zniszczy obiekt C, to zniknie on, a bezpośrednio zależne od niego obiekty zostaną zaznaczone do odśmiecenia.

Problem wynika stąd, że kompletnie nie wiadomo, kiedy to odśmiecenie nastąpi – jak pisze Stavracas, może to być za 10 minut, a może być to jutro. Więc obiekty pchają się na siebie do odśmiecenia, mają swoje potomne obiekty, które powinny być zebrane kiedyś później – i tak oto nic się nie traci, po prostu odśmiecacz nie pracuje poprawnie.

Początkowe rozwiązanie było bardzo agresywne, coś jak rzucanie granatem w mrowisko. Wywołuje się odśmiecanie za każdym razem gdy obiekt jest oznaczony do zniszczenia. Ma to mniejszy niż spodziewano się wpływ na wydajność, po prostu odśmiecacz działa znacznie częściej na mniejszej liczbie obiektów – przynajmniej tych związanych z GJS (nie ma to wpływu na inne mechanizmy zarządzania pamięcią).

Jest to jednak nieeleganckie i tymczasowe rozwiązanie. Opracowywane są lepsze łatki, które zmieniają działanie GJS i docelowo znacznie zwiększą płynność działania GNOME Shella. Obie łatki zostaną backportowane do GNOME 3.28.

Pierwsza dotyczy zmiany struktury danych obiektów JavaScriptu, zmiany która pozwoli przejść od algorytmu O(n) – czyli o czasie wykonania liniowo zależnym od rozmiarów zbioru, do algorytmu O(1), czyli o stałym czasie wykonania niezależnie od wielkości zbioru.

REKLAMA

Druga drastycznie zmniejsza liczbę tymczasowych alokacji pamięci, i jak wyjaśnia deweloper, daje najbardziej chyba odczuwalny wzrost wydajności pulpitu na komputerze.

Jakie z tego wszystkiego wnioski? Nam nasuwają się dwa. Pierwszy to tak, że nic dobrego z upowszechnienia się JavaScriptu i technologii webowych na pulpitach komputerów osobistych nie wynika – nie tylko jest to żenująco mało wydajne rozwiązanie, ale też utrudnia takie sprawy jak wielowątkowość. Drugi jest taki, że deweloperzy GNOME mają jednak bardzo szybkie komputery. SpiderMonkey? Niczego bardziej powolnego nie dało się znaleźć?

Jedno jednak jest pewne: Ubuntu 18.04 będzie wolne od problemów z wyciekami pamięci. I bardzo dobrze, może będzie można z nim dłużej popracować.

...

Zawsze sa problemy ktore trzeba pokonywac.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 10:32, 25 Kwi 2018    Temat postu:

Ubuntu Touch
Reklama na Linuxiarze.pl


Postanowiłem zrobić wpis dotyczący Ubuntu Touch. Choć wiele osób uznaje projekt za martwy, to społeczność Ubuntu Ports postanowiła przejąć pod swoje skrzydła rozwój mobilnego Ubuntu. Cannonical wsparł dotacją sprzętową Ubuntu Ports, czyli przekazał telefony, na których wcześniej pracowano nad wersją mobilną(*1). Warto sobie zadać pytanie, czym się różni zwykłe Ubuntu Desktop od Ubuntu Touch? Różnice są duże, nie tylko na pierwszy rzut oka.

Najważniejszą rzeczą jest zainstalowanie UT, czyli Ubuntu Touch na telefonie. Do tego potrzebne są zainstalowane pakiety android-tools-fastboot, android-tools-adb, phablet-tools i nmon, do tego zainstalowałem z pomocą komendy sudo snap install ubports-installer, instalator który pomoże nam przebrnąć przez niewygody procesu instalacji. Koniecznie trzeba posiadać sprawny kabel serwisowy, który połączy telefon z komputerem oraz wspierany telefon(*2). I tu pojawia się kolejny problem, bo mamy Androida na pokładzie. Musimy włączyć debugowanie USB, następnie, jeśli komputer wykrywa urządzenie, to znaczy po poleceniu adb devices i fastboot devices widzimy id urządzenia. Z tym drugim poleceniem jest taka trudność, że musimy wyłączyć komórkę, przycisnąć jednocześnie przycisk mocy i głośności, by fastboot mógł zobaczyć lub nie nasz sprzęt. Zakładając, że wszystko działa, przechodzimy do następnego kroku wpisując komendy adb reboot-bootloader, a następnie fastboot oem unlock. To działa na Nexusie 5, to jest mój model testowy. Gdy wszystko poszło sprawnie (czytaj bez błędów po drodze), możemy odpalić Ubports-installer, a następnie wybieramy model urządzenia, potem wersję systemu, z której chcemy skorzystać. Ja wybrałem stabilną 15.04. Wersja 16.04 jest rozwojowa.

Pod maską UT 15.04 korzysta z jądra 3.4.0-cyanogenmod-g2669fa0, natomiast UT 16.04 z 4.4. Wyjątkiem jest Nexus 5, który ma w UT 16.04 jądro 3.4. Jądro korzysta z tzw. “blobu”, czyli zamkniętych sterowników, więc aktualizacja do nowszego jądra spowodowałaby, że telefon stałby się nie bootowalny. Telefony są “przyzwyczajone” do standardowego API/ABI jądra.

Pierwszą rzeczą, która rzuca się w oczy jest Unity 8, która w przeciwieństwie do Unity 7 napisanego w C++, Vala i QML, korzystającego z menadżera okien Compiz Fusion oraz biblioteki GTK+; napisana w QML i korzystająca z biblioteki Qt. W Unity 8 mamy do czynienia z konwergencją, czyli istnieje jedno środowisko graficzne na urządzenia mobilne i zwykłe komputery. Ponadto ekran blokady wyświetla informację pod postacią np. “Otrzymałeś dzisiaj wiadomość na Telegram”.

Demonem uruchomieniowym, zwanym powszechnie initem, jest upstart(*3) zastąpiony w wersji serwerowej i desktopowej przez systemd, który jest powszechnie znienawidzony wśród Unixowych i Linuxowych wyjadaczy. Daje to nadzieję na jego dalszy rozwój, na razie. Najbliższe plany dotyczą pracy nad UT 18.04. Nie ma pewności, jak długo upstart zostanie przy życiu.

Ma własną przeglądarkę, podpisaną jako przeglądarka webbrowser-app, która jest oknem na świat dla użytkowników UT. Jest to prosta przeglądarka oparta na API chromium i Blinku, gdzie domyślną wyszukiwarką jest dbająca o bezpieczeństwo DuckDuckGo, co oczywiście można zmienić w ustawieniach na Bing, Yahoo, Yandex czy jakąś inną, która bardziej nam pasuje. Można znaleźć w tej przeglądarce podstawowe funkcje, takie jak: pobrane pliki, przeglądanie w trybie prywatnym, zakładki, historia, znajdź, skromne ustawienia, jak wyczyść historię, wyczyść pamięć podręczną, zezwolenie na używanie aparatu i mikrofonu, można przywrócić poprzednią sesję przy starcie oraz zresetować ustawienia przeglądarki. Przeglądarka jest zabezpieczona dzięki piaskownicy, soczewki mogą być zabezpieczone, ale nie muszą.

Instalujemy oprogramowanie przez OpenStore. Nie potrzebujemy do tego podania hasła, ale już otwierając terminal musimy podać. Zainstalowałem “soczewki”, czyli webowe apki, takie jak: oficjalne Amazonu i ebaya, nieoficjalną Aliexpress. Do tego jakieś social media, jak: Facebook, Twitter oraz Instagraph, czyli klient Instagrama, są to oczywiście apki nieoficjalne. Te webowe apki są oczywiście uboższe pod względem braku wielu funkcji i designu, ale też mają zdecydowanie mniejsze rozmiary, więc zajmują mniej miejsca na dysku. Fanów pisania rozczaruje brak możliwości zalogowania się do Fmessengra, odpowiednika Messengera, za to w OpenStore znajdziemy klienta Hangouts pod nazwą Hangups, którego nie udało mi się zainstalować. Istniałaby więc pewna możliwość przestawienia się z jednego monopolisty do drugiego, zakładając że obydwa klienty działałyby jak należy.

Dość ciekawą alternatywą dla komunikatorów Googla i Facebooka jest Telegram, który jest aplikacją natywną. Jest to bezpieczny komunikator, który naraził się władzom Rosji nie wydając kluczy szyfrujących. Polecam grupy:
t.me/UBports_PL
ubports.com/page/get-ubuntu-touch
t.me/UBports_Unity8
t.me/WelcomePlus
które dotyczą UT i Unity8.

Kolejną ciekawą aplikacją jest przeglądarka dokumentów, która jest oparta na LibreOffice’ie. Potrafi otwierać pdfy. Kolejnym programem wartym zainstalowania jest LogViewer, który pokazuje logi systemowe, to program dla ludzi, którzy chcą wiedzieć, co się dzieje w systemie. Ale co zrobić, gdy chcemy znaleźć jakieś miejsce, dotrzeć na jakąś ulicę? Od tego mamy uNav oparty o bazy danych OpenStreet. Niestety nie miałem odwagi testować go w praktyce w terenie, ale słyszałem od innego użytkownika, że apka jest średnia, na szczęście jest otwarta.

Hasło jest wymagane do terminala i UT Tweak Tool. W terminalu nie działa przesuwanie do wcześniejszych linii, gdy wyświetli się np. pomoc do programu opcją -h. Zdziwił mnie brak polecenia man, jest za to: less, cat, grep, nano i vi oraz vim. UT Tweak Tool jest do zainstalowania z OpenStore, posiada kilka funkcji pogrupowanych w zachowanie, “aplikacje i soczewki” oraz system. W systemie mamy: debugowanie USB, przesyłanie plików i tajemniczy Remote Network Driver Interface Specyfication, a ponadto informacje o systemie, możliwość instalacji pakietu ręcznie, jeśli go pobraliśmy z sieci oraz bardzo ryzykowną funkcję zrobienia nadpisania obrazu systemu. W “aplikacjach i soczewkach” mamy wyszczególnione, ile miejsca na dysku zajmuje apka, z jakich uprawnień korzysta, czyli internet, możliwość odgrywania dźwięku, itp. W zachowaniu są ulubione apki, tryb użytku (do wyboru są dwie opcje staged i windowed, druga opcja mi nie działa), ustawienia launchera (tu chodzi chyba o belkę z apkami po lewej), wskaźniki baterii i menu, a ponadto Edge sensivity, czyli ustawienie czułości reakcji na gesty.

Największą wadą w moich oczach jest słabsza praca na baterii w porównaniu do Androida 5.0.1, pierwszą wersją był Android 4.4, z którego zrobiłem aktualizację. Drugą wadą jest jakość apek, którym czasami dużo brakuje. Trzecią wadę stanowi mała ilość aplikacji. To czy będzie się rozwijał pod kątem narzędzi dostępnych z terminala, czy bardziej apek mobilnych pozostaje kwestią otwartą na łonie społeczności.

Instalacja polega na zainstalowaniu Halium, czyli zmodyfikowanej wersji Androida, na którym instalujemy obraz Ubuntu, a potem uruchamiamy. Jeżeli nie portujemy naszego OSa na inne telefony to możemy skorzystać z aplikacji UBInstaller dostępnej na Windowsa, Mac OS X i Ubuntu, a bardzo prawdopodobne, że są też paczki na inne dystrybucje GNU/Linuxa, bo jest aplikacja otwartoźródłowa.

W oparciu o nasz system mobilny stworzono Plasma Mobile, czyli odmianę z KDE, jest instalowany na NEONie bazującym na rootfs, Archu bazującym na rootfs i postmasterOS, czyli przeróbce Alpine Linuksa. Nie znalazłem w oparciu o co powstaje system z GNOME Mobile, ale jest wielce prawdopodobne, że też będzie oparty na Ubuntu.

*1 – news.softpedia.com/news/canonical-donates-ubuntu-phones-to-ubports-to-continue-ubuntu-touch-development-519877.shtml
*2 – ubuntu-touch.io/devices#/
*3 – github.com/ubports/upstart

...

W ogole chyba dobrze by zrobilo dodac Android do Linuxa bo to ludzie znaja a Linux slabo. Android na pc bylby chwytliwym hadlem. Android Ubuntu Android Mandriva Android Fedora itd. Zwiekszyl by sie moze zasieg na PCtach. Duzo nazw trudno wypromowac.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 20:45, 26 Kwi 2018    Temat postu:

Ubuntu już do zaktualizowania, o ile nie boicie się wielu usterek na starcie
Strona główna Aktualności26.04.2018 12:00Adam Golański
@eimi
Ubuntu 18.04 LTS już jest, mimo że oficjalnie na stronach internetowych linków jeszcze nie ma. Najważniejsza w ostatnich latach premiera systemu Canonicala startuje cicho, informację opublikowano dopiero na wiki. Już teraz jednak możecie zaktualizować wydania 17.10 i 16.04 LTS, jak również pobrać instalacyjne ISO. Czy jednak warto? Lista znanych i nienaprawionych problemów wydaje się trochę zbyt długa, jak na coś, co ma być stabilnym wydaniem o rozszerzonym okresie wsparcia. Niestety, takie są konsekwencje przywiązania do regularnego cyklu wydawniczego.

Od ostatniego wydania beta żadnych nowości oczywiście nie ma. Kto miał okazję wtedy testować Ubuntu, dobrze wie, czego się spodziewać. Przypomnijmy dla pozostałych najważniejsze zmiany w tym wydaniu:

Domyślny pulpit GNOME w Ubuntu 18.04 LTS
Kernel zaktualizowany został do wersji 4.15.
Domyślny pulpit to mocno zmodyfikowane GNOME 3.28 zamiast Unity.
Domyślnym menedżerem sesji jest GDM zamiast LightDM (sesja X działa teraz pod wirtualnym terminalem Ctrl-Alt-1)
Podczas instalacji można zrezygnować z partycji wymiany i zastosować w zamian plik wymiany.
Pojawiła się opcja „minimalnej instalacji”, w której dostajemy tylko podstawowe narzędzia i przeglądarkę.
Instalator nie oferuje już opcji szyfrowania katalogu /home użytkownika, Ubuntu 18.04 LTS stawia na całodyskowe szyfrowanie.
Wszystkie okienka mają teraz swoje widżety po prawej stronie, jak w Windowsie.
Możliwe jest drukowanie bez sterowników.
Wiele systemowych narzędzi (m.in. Kalkulator, Znaki, Logi czy Monitor systemu) oferowanych jest w postaci paczek snap.
Licznym aplikacjom systemowym, w tym menedżerowi plików nautilus, ustawieniom i sklepowi z aplikacjami mocno odświeżono interfejs.
Sklep z aplikacjami obsługuje przełączanie się między kanałami snapów.


Kalendarz obsługuje prognozy pogody.
Domyślnie instalowana jest aplikacja listy rzeczy do zrobienia.
LibreOffice oferowane jest w wersji 6.0, Firefox pozostaje domyślną przeglądarką i oferowany jest w wersji 59.
Zniknął z systemu Python 2, choć wciąż będzie można go doinstalować z repozytoriów.
OpenSSH wymaga kluczy co najmniej 1024-bitowych.
Koniec 32-bitowych obrazów Ubuntu Desktop – Canonical powoli kończy z architekturą x86.
Niestety obok tej długiej listy nowości mamy nie mniej długą listę usterek, których do tej pory nie udało się naprawić. Wiele z nich to usterki w GNOME, na których rozwiązanie trzeba będzie czekać, aż się programistom upstreamu zechce tym zająć. Niektóre to prawdziwe blokery dla jakiejkolwiek, nie tylko poważnej pracy – np. niewyświetlanie ekranu logowania na zewnętrznym wyświetlaczu. Nie można też wybrać całodyskowej instalacji na istniejącym już podziale partycji z wolumenami logicznymi, ekran logowania się zawiesza po wpisaniu niewłaściwego hasła… a pewnie takich drobiazgów teraz znajdzie się więcej.

Sklep z aplikacjami – zarówno snapy jak i paczki .deb w jednym interfejsie
Jeśli jednak chcecie spróbować, to ISO z Ubuntu 18.04 Bionic Beaverem znajdziecie już na serwerach Canonicala. Możliwa jest także aktualizacja z wcześniejszych wersji – 16.04 LTS lub 17.10. W tym celu w panelu Oprogramowanie i aktualizacje należy wybrać trzecią zakładkę (Aktualizacje) i tam wybrać w rozwijanym menu Powiadamianie o nowych wydaniach Ubuntu na Każdej nowej wersji.

Następnie należy przez Alt-F2 wywołać dialog poleceń i wpisać tam update-manager -cd. Uruchomi to menedżera aktualizacji, który powiadomi o dostępności 18.04. Wystarczy kliknąć Aktualizuj i poczekać, aż menedżer zakończy pracę.

...

Coz. Darmowe to musi być ochota do pracy. Zloslywy gnom najbardziej szkodzi.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Pon 10:02, 30 Kwi 2018    Temat postu:

PNowy GIMP to przełom: sprawdź co darmowy edytor grafiki da zawodowcom
Strona główna Aktualności28.04.2018 11:06

eimi
Adam Golański
@eimi
Najpopularniejszy otwartoźródłowy, darmowy edytor grafiki i zdjęć po sześciu latach doczekał się kolejnego dużego wydania. GIMP 2.10 jest już dostępny na serwerach projektu. To wciąż jest aplikacja zbudowana na starej bibliotece GTK2, migracja do GTK3 długo jeszcze nie nastąpi, ale czy to takie ważne? W praktyce dostajemy dziesiątki wartych uwagi ulepszeń, które przydadzą się chyba każdemu użytkownikowi – czy jest fotografem, grafikiem, webdesignerem czy też po prostu okazjonalnie chce sobie wykadrować obrazek.

Najważniejszą ze zmian jest niemal całkowite przeniesienie przetwarzania obrazu na bibliotekę GEGL. GIMP wykorzystuje ją teraz nie tylko dla kilku narzędzi kolorów i obsługi warstw. Teraz służy też do zarządzania kaflami i tworzy dla każdego projektu acykliczny graf. To fundament pod niedestrukcyjną edycję grafiki, która przyjdzie w kolejnych wersjach edytora.

REKLAMA

GIMP 2.10 z nowym splashem: bardzo ładne grzybki
Oczywiście możemy też dzięki GEGL pracować z kolorową grafiką do 32-bit na kanał, w liniowej przestrzeni kolorów RGB, a nie tylko postrzegalnej, skorygowanej gammą przestrzeni jak dotąd.

Rdzenną funkcją GIMP-a stało się teraz zarządzanie kolorami. To już nie tylko wtyczka, wsparcie dla zarządzania kolorami znajdziemy na poziomie wszystkich widżetów jakie występują w programie, nawet podglądu obrazków. Dzięki zastosowaniu biblioteki LittleCMS v2 można korzystać też ze standardowych profili kolorów ICC v4.

Teraz więc w GIMP-ie otworzymy i zapiszemy obrazy w formatach TIFF, EXR, RGBE i PSD bez żadnych strat. Można nawet importować obrazy FITS mające do 64 bitów na kanał. Doszło też wsparcie dla webowego formatu grafiki WebP, a także możliwość edycji metadanych dla Exif, DICOM, IPTC i XMP.

Operacje GEGL-owe na każdym kroku
Pojawiło się kilka nowych GEGL-owych filtrów, które powinny szczególnie zainteresować fotografów: Exposure, Shadows-Highlights, High-pass, Wavelet Decompose i Panorama Projection. Dodano też możliwość stosowania programów RawTherapee i darktable jako wtyczek GIMP-a do otwierania zdjęć. w formatach RAW.

Ulepszono wiele narzędzi, doszły też nowe, na czele z nowymi transformacjami: Warp, Unified i Handle oraz lepszym zaznaczaniem, nawet po subpikselach. Usprawniono też malowanie dzięki możliwości rotacji i odwracania płótna, trybowi malowania symetrycznego, wsparcia dla pędzli w formacie MyPaint.

GIMP działa już w większości operacji wielowątkowo, oddziela rysowanie interfejsu od przetwarzania grafiki, a jeśli mamy stabilne sterowniki OpenCL, to możemy cieszyć się też akceleracją GPU. Domyślnie jest to jednak wyłączone, trzeba akcelerację włączyć w Edit > Preferences > System resources.

REKLAMA

Szary interfejs, nowy motyw ikon i obsługa OpenCL
Interfejs programu oferuje teraz nowe motywy graficzne (jasny, szary, ciemny i systemowy), nowe, mniej rozpraszające ikony interfejsu, podstawowe wsparcie dla wyświetlaczy HiDPI przy skalowaniu ikon.

Z kompletną listą zmian możecie zapoznać się w informacjach o wydaniu. Sporo tego jest, to wspaniałe wydanie, którym warto pobawić się przez weekend… o ile korzystacie z Linuksa. Nie przygotowano bowiem jeszcze stabilnej wersji na systemy Microsoftu. Za to użytkownicy linuksowych dystrybucji nie muszą czekać, aż opiekunowie ich dystrybucji zaktualizują wersję GIMP-a w repozytoriach. Pomógł format Flatpak, dzięki któremu jednym kliknięciem (zainstaluj flatpaka GIMP-a) możecie zainstalować całą paczkę z zależnościami, o ile macie Flatpaka w systemie.

Reasumując, to ogromny krok naprzód dla wolnych multimediów – GIMP wciąż oczywiście ustępuje Photoshopowi w kwestii niedestrukcyjnych zmian, jednak już dziś może być swobodnie wykorzystywany w pracy z poważnymi formatami grafiki. I jest naprawdę szybki, odczuwalnie szybszy we wszystkich operacjach graficznych od wersji poprzedniej. Gratulacje dla zespołu deweloperów – warto sobie uzmysłowić, że grupa pod wodzą Michaela Natterera to co najwyżej kilkanaście osób, które nigdy nie miały do dyspozycji zasobów, jakimi dysponuje Adobe.

...

Znakomity! Juz stare wersje sprzed 10 lat byly swietne. Mnostwo ludzi zostalo grafikami. Np ci od u nas od Herosow III co modyfikuja to Gimp byl pierwszym programem. Nie zostali by pewnie grafikami gdyby mieli za pare tysiakow kupowac.

I ja oczywiscie tez! Jeden z podstawowych programow. Pierwszy chyba ktory sciagnalem o ile pamietam te dawne czasy. Najpierw probowalem tym wmontowanym w Windows. Ale slaby to trzeba cos lepszego. I wtedy Gimp. Do dzis.

On jest o wiele za dobry jesli chcecie tylko pomajstrowac w zdjeciach. A i dla grafikow tez. Oczywiscie w pracy np. nad grami to moga byc jakies dziwaczne wymogi. Ze musi byc podswietlone pod katem ilus stopni itd. Stad takie opcje. Poza tym chodzi o to aby rozpoznawal jak najwiecej formatow graficznych. Tu jednak mozna sobie pomoc np. Irfanem tez darmo i konwertowac.

Jednym slowem swietna rzecz. Jeden ze sztandarowych tworow otwartego oprogramowania. Wielki sukces i mnostwo dobra przyniosl.
Ale dla mniej potrzebujacych sa i inne np. Paintnet tez potrzebny. Musza byc programy na roznym poziomie. Gimp to szczyt.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 17:56, 02 Maj 2018    Temat postu:

Fedora 28 dostępna do pobrania

Wcześniej swoją premierę miało Ubuntu, teraz można pobrać najnowszą Fedore o numerze 28.

qdt2k 8 godz. temu +1
Całkiem atrakcyjnie wygląda lista usprawnień dla laptopów/desktopów. W końcu repozytorium nVidia, Steam. Do tego lepsza obsługa zarządzania energią dla laptopów.
Ale openSUSE Leap 15 już za 2-3 tygodnie.

...

Przedtem Ubuntu teraztFedora. Czyli dla bardziej zaawansowanych informatycznie.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 20:22, 06 Maj 2018    Temat postu:

Już jest nowe środowisko graficzne Linux Minta – ale testować trzeba je gdzieś indziej
Strona główna Aktualności06.05.2018 15:08

eimi
Adam Golański
@eimi
Do wydania Linux Minta 19 zostało jeszcze trochę czasu, już dzisiaj jednak możemy bliżej zapoznać się z nową wersją jego środowiska graficznego Cinnamon. Nie, nie szukajcie żadnych repozytoriów PPA, oznaczona numerem 3.8 nowa wersja Cinnamona wymaga do działania zupełnie nowych wersji bibliotek i po prostu nie uruchomicie jej na Mincie 18.x. Paradoksalnie, zamiast tego należy sięgnąć po dystrybucje typu rolling-release, takie jak Arch i jego pochodne (Manjaro, Antergos itp.). A sprawdzić warto, Cinnamon staje się środowiskiem graficznym nie tylko prostym i wygodnym, ale też coraz bardziej konfigurowalnym.

Po zainstalowaniu nowego Cinnamona 3.8 (sudo pacman -S cinnamon) na pierwszy rzut oka zauważym, o ile szybsze stało się rysowanie nowych okienek, zarówno na pulpicie jak i w widokach podglądu. To zasługa ulepszeń w bibliotece muffin jak i zapożyczeń z GNOME – znacznie rzadziej konieczne jest przerysowywanie całego ekranu. Poprawki w bibliotece rozszerzeń menedżera plików nemo sprawiły zaś, że szybciej wyświetlana jest zawartość katalogów, szczególnie tych pełnych multimedialnych plików. Znacznie lepiej i szybciej działa też wyszukiwarka plików.

Cinnamon 3.8 na Manjaro Linuksie
Cinnamon 3.8 na Manjaro Linuksie
Gdy już napatrzymy się na szybkie rysowanie okienek, można zauważyć kolejne zmiany. Znacznie lepiej wyglądają okienka typu CSD (czyli te dające możliwość umieszczenia wszelkich widżetów w belce okna, wprowadzone w GTK 3. Ustawienia sieci wyglądają nowocześniej, zawierają elementy z GNOME 3.24 i 3.26. Rozszerzono możliwości apletów Xlets, można w nich teraz definiować opcje kolumn przy korzystaniu z list, ustawienia są ładnie podświetlane, dodano też obsługę prostych wyrażeń z operatorami prawdziwościowymi do porównywania wartości.

Sensowniej zachowują się powiadomienia, mają wreszcie przycisk zamknięcia i nie znikają po najechaniu na nie wskaźnikiem myszy. Cinnamon dba, by żadna aplikacja nie mogła zaspamować pulpitu powiadomieniami, ustawiając limity dla wszystkiego poza przeglądarkami. Uaktywnienie aplikacji sprawia, że powiadomienia znikają. Można też wymusić wyświetlanie powiadomień na dole ekranu.

Kilka zmian ulepszy korzystanie z Cinnamona na laptopach: przed uśpieniem ekran zostaje synchronicznie zablokowany, w ustawieniach zasilania można teraz wybrać opcję Natychmiast wyłącz dla zamkniętej pokrywy i awarii baterii, a jeśli myszka nie jest podłączona, Cinnamon natychmiast próbuje włączyć gładzik. Wyłączono też przyciski usypiania i hibernacji przy zablokowanym ekranie.

Lepsza wyszukiwarka plików, większe możliwości konfiguracji – i sporo więcej
Lepsza wyszukiwarka plików, większe możliwości konfiguracji – i sporo więcej
Ulepszono kontrolkę dźwięku: pozwala ona ustalić maksymalną głośność do nawet 150%, co obsługiwane jest też potem przez klawisze sterowania mediów. Dodano również możliwość niezależnego wyciszenia mikrofonu oraz głośników.

Cinnamon 3.8 to też kilka ważnych zmian „pod spodem”: nowy interpreter JavaScriptu działający na bazie silnika Mozilla SpiderMonkey 52, wsparcie dla protokołów [link widoczny dla zalogowanych] elogind oraz systemd-timedated1 (który zastąpi sieciowe protokoły czasowe ntp i ntpdate), przepisanie komponentów w Pythonie na Pythona 3 i zaprzestanie samodzielnego ustawiania zmiennych dla aplikacji QT5 (o to powinny zadbać dystrybucje).

Ogólnie wrażenia są bardzo dobre i możemy się tylko cieszyć, że deweloperzy Linux Minta nie zrobili tego samego co Canonical i nie porzucili Cinnamona. Środowisko to nie tylko pozostaje przyjazne dla początkujących użytkowników, ale też oferuje coraz więcej pod względem konfigurowalności – można je uznać za poważnego rywala dla KDE Plazmy.

Pierwsza wersja beta Linux Minta 19 z Cinnamonem powinna pojawić się jeszcze w maju. Jeśli nie chcecie czekać, a gotowi jesteście na przeznaczoną już dla bardziej zaawansowanych użytkowników dystrybucję, to polecamy rozwijane przez społeczność Manjaro Linuksa z pulpitem Cinnamon. Obrazy ISO znajdziecie na stronach OSDN (Open Source Developer Network).

...

Linux ma te przewage ze nie musi na sile zmieniac rozwiazan tylko po to aby wymusic sprzedaz nowego modelu zeby byl zysk. Spokojnie mozna zachowac stare dobre rozwiazania.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Pon 17:29, 07 Maj 2018    Temat postu:

Ruch open source kończy 20 lat. Po dwóch dekadach otwarty kod stanowi nawet 90% nowych aplikacji
Nika Dzisiaj, 11:58
W lutym tego roku minęło 20 lat od spotkania The Open Source Initiative (OSI) uważanego za symboliczne narodziny ruchu open source. Wydarzenie dało również początek organizacji, której misją jest promowanie otwartych rozwiązań. Trend, któremu początkowo nie wróżono sukcesu, upowszechnił się w sektorze technologicznym.
reklama czytaj dalej


Według firmy doradczej Forrester programiści pracujący nad rozwojem nowych aplikacji nawet w 80-90% korzystają z otwartych komponentów. Na niezauważanie open source nie mogą sobie pozwolić nawet firmy dotąd kojarzone wyłącznie z rozwiązaniami zamkniętymi.

Na początku 1998 roku Netscape, firma współpracująca z Raymondem opublikowała kod źródłowy swojej przeglądarki Netscape Communicator, co stanowiło impuls do zorganizowania spotkania The Open Source Initiative, na którym powołano do życia organizację wspierającą rozwój otwartego oprogramowania. OSI przyczyniła się do opublikowania dokumentu „Open Source Definition”, a tym samym do upowszechnienia się samego terminu. Open source dotyczy oprogramowania, którego kod źródłowy został upubliczniony i jest powszechnie dostępny – w odróżnieniu od rozwiązań zamkniętych, gdzie taka wiedza objęta jest tajemnicą przedsiębiorstwa. Udostępnianie kodu pozwala na szybsze i bardziej efektywne tworzenie nowych rozwiązań i usprawnianie tych już istniejących. Dodatkowo, użytkownikom daje większą elastyczność w zakresie dostosowywania oprogramowania do własnych potrzeb.

Popularność rozwiązań opartych o technologie open source pokazuje, że można z powodzeniem działać w branży technologicznej, udostępniając jednocześnie swoje know-how w postaci kodu źródłowego oprogramowania. Dwie dekady temu rynek nie widział w takim podejściu biznesowego uzasadnienia. Dziś z open source codziennie korzystają choćby miliony użytkowników smartfonów. Otwarty kod jest silnie obecny także w oprogramowaniu dla biznesu. Wiele firm posiadających własne centra danych, korzysta właśnie z otwartych systemów operacyjnych. Z kolei, jeśli przyjrzymy się najistotniejszym kierunkom rozwoju IT, okaże się, że również one są zdominowane przez otwarte technologie. Wystarczy wymienić rynek konteneryzacji, data science czy uczenia maszynowego. Open source należy więc postrzegać jako źródło innowacji w sektorze technologicznym, jak mówi Dariusz Świąder z Linux Polska.

Jak wynika z ostatniego badania Black Duck Open Source 360 Survey, przeprowadzonego wśród ok. 900 respondentów, 90% organizacji używa otwartego oprogramowania, a 60% zwiększyło skalę jego wykorzystania w ciągu ostatniego roku. Ponadto 63%. ankietowanych uważa, że open source przyspiesza wdrożenie innowacji, a 61%, że wykorzystane otwartych komponentów poprawia jakość tworzonych rozwiązań.

Źródło: Linux Polska

...

Wielki triumf! W internecie kapitalizm przegral! Zwyciezyla filozofia otwartego wolnego oprogramowania. W dziedzinie mobilnej moze 1% aplikacji nie ma darmowych odpowiednikow.
Tu mozemy podziekowac Billowi Gatesowi gdyby nie jego potworna pazernosc i żądanie za program 150$ a nie np. 15$ ruch otwartych oprogramowan moglby nie powstac. Bo komu by sie chcialo oszczedzac 15$? Tanie programy mogly uksztaltowac model platnego internetu. Wprawdzie nisko ale to tu to tam i sie uzbiera.

Zwyciezyla wolnosc ale nic nie jest dane na zawsze! Bandyci nie spia. Szukaja dojsc do Waszyngtonu do Brukseli. Acta Kopa Sopa czy co tam... Platne linki! Pomysly psychopatow a jednak jak zasniemy to sie obudzimy w wiezieniach za,,piracki link" lub,, piracki obrazek".
Wolnosc nie jest dana raz na zawsze. Trzeba ja stale zdobywac. Kto to powiedzial? Jan Pawe...? Tu widzicie w praktyce.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 10:06, 08 Maj 2018    Temat postu:

Ubuntu jak się robi etyczną telemetrię
Strona główna Aktualności07.05.2018 15:25
Inżynierowie oglądają płytę główną z depositphotos
eimi
Adam Golański
@eimi
Kto miał zainstalować sobie najnowsze Ubuntu 18.04 LTS, ten już pewnie to zrobił. A teraz wysyła całkiem sporo informacji do firmy Canonical. Niespodzianka? Na pewno nie. Kto śledził ostatnie prace deweloperów Canonicala ten powinien pamiętać, że system znany pod nazwą kodową Bionic Beaver domyślnie włącza telemetrię dla nowych instalacji.

Producent Ubuntu zapowiedział to posunięcie już w lutym. Skonsternowani użytkownicy, pamiętający jeszcze aferę ze przesyłaniem lokalnych wyszukiwań w środowisku Unity na serwer Canonicala (i to bez ich anonimizacji) mogli sądzić, że to kolejne podejście do handlu ich danymi – Amazon na pewno by się połakomił. A jednak nic z tego. Tym razem nowemu Ubuntu zarzucić nic nie można. Wręcz przeciwnie, firma Marka Shuttlewortha mogłaby uczyć ludzi z Microsoftu, jak należy wprowadzać etyczną telemetrię.

REKLAMA

To prawda, podczas samej instalacji nie ma nigdzie możliwości zrezygnowania z telemetrii. Ubuntu Report, narzędzie gromadzące informacje o systemie, startuje zaraz po uruchomieniu. Jednocześnie jednak uruchamiane jest graficzne narzędzie wstępnej konfiguracji systemu Witaj w Ubuntu. Pyta ono w pewnym momencie, czy chcemy pomóc udoskonalić Ubuntu.

Czy pomożesz udoskonalić Ubuntu?
Czy pomożesz udoskonalić Ubuntu?
Pomoc ta polega na wysyłaniu Canonicalowi informacji o sprzęcie, zainstalowanych pakietach i przybliżonej lokalizacji (ustawieniach językowych i czasowych). Domyślnie zaznaczony jest przycisk radio „Tak, wyślij informacje o systemie do Canonical”. By zrezygnować z telemetrii należy przełączyć na „Nie wysyłaj informacji o systemie”.

Możemy też kliknąć przycisk „Pokaż pierwszy raport” i zobaczyć, co wysłane zostanie. Jak widać, to prosty plik JSON, zawierający zrozumiale opisane informacje o sprzęcie. Obok znajduje się też przycisk „Informacja prawna”, który otwiera Firefoksa ze stroną opisującą politykę prywatności Canonicala.

Mały prosty JSON z raportem dla Canonicala
Mały prosty JSON z raportem dla Canonicala
Zaprezentowanie w ten sposób informacji o telemetrii wydaje się lepszym rozwiązaniem, niż pytanie o to w instalatorze Ubiquity, w którym użytkownicy klikają tylko Dalej, dalej, by jak najszybciej zakończyć instalację i jej nudny pokaz slajdów. Tutaj już po uruchomieniu znacznie trudniej ominąć wzmiankę o telemetrii, tym bardziej że program powitalny zaczyna od ciekawych komunikatów: przedstawia ważne nowości w interfejsie Ubuntu 18.04 i pozwala włączyć aktualizacje kernela bez restartów.

wersja Ubuntu
partycje dysku
producent sprzętu
informacje o wyświetlaczu
model komputera
stan autologowania
wersja BIOS
stan automatycznego łatania
procesor główny
środowisko graficzne
procesor graficzny
serwer grafiki
ilość RAM
strefa czasowa
Informacje zbierane za pomocą telemetrii Ubuntu Report
Co Canonical zrobi z tymi wszystkimi zbieranymi danymi? Służyć mają przede wszystkim do poprawienia jakości systemu. Wiedząc na jakim sprzęcie i z jakim oprogramowaniem pracują użytkownicy, deweloperzy i testerzy firmy będą mogli skupić się na tym co najpilniejsze i najpopularniejsze. Canonical nie jest przecież Microsoftem, nie jest w stanie jednocześnie i w równym stopniu zająć się wszystkim.

Telemetria w Windowsie to zupełnie inna bajka
Telemetria w Windowsie to zupełnie inna bajka
A jak to robi Microsoft? Użytkownicy Windowsa 10 mogą skorzystać już z oficjalnej Przeglądarki danych diagnostycznych, którą doinstalować trzeba z Microsoft Store, a następnie włączyć w Ustawieniach, w panelu Prywatność > Diagnostyka i opinie. Tu też jak widać wysyłane są pliki JSON… ale co dokładnie jest w nich zawarte, tego chyba nikt poza specjalistami z Redmond nie wie. Co więcej, widać wyraźnie, że nie można całkiem wyłączyć tej tajemniczej telemetrii: w najlepszym razie możemy ograniczyć jej intensywność, przełączając opcję diagnostyki z Pełnej na Podstawową.

..

Poza tym warto wesprzec Ubuntu. Facebook nas sledzi Google Microsft itd... a ja bede zalowal danych tym co robia darmowy otwarty system?


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 7:55, 12 Maj 2018    Temat postu:

Siostro, zastrzyk, czyli Linux w urządzeniach Google i Microsoftu
autor Salvadhor • 10 maja, 2018 • 4 komentarze

00


W sumie. Czy kogoś to dziwi? Osoby będące w temacie zapewne śledzą od jakiegoś czasu doniesienia o walecznym trudzie jaki zadają sobie wiodące korporacje, aby zaoferować ludziom Linuksa jako przykrywkę dla swoich produktów. Bo jak inaczej określić Chromebooka dla którego Google przygotowało możliwość uruchamiania aplikacji Linuksowych (na Linuksie, wykombinuje sobie to), oraz Microsoft który pozwoli na skorzystanie z Ubuntu na… Windowsie 10 odpalonym na tajemniczym ACPC.


Linux w Linuksie na Chromebooku
Jaki Chromebook jest, każdy widzi. Przynajmniej konsument mieszkający w USA, gdyż na Starym Kontynencie ten sprzęt to egzotyka. Niewiele osób jednak wie, że pod spodem tkwi Linux – tak bardzo znienawidzony przez masowych konsumentów. To jednak nie stoi na przeszkodzie, aby Chromebooki odnosiły sukces sprzedaży w USA. Co więcej, sukces jest tak gwałtowny i odczuwalny, że większość serwisów zliczających ruch internetowy stworzyło oddzielną kategorię dla tego Linuksa, który udaje co innego. Ale teraz sprawy się komplikują, bowiem Google oficjalnie ogłosiło, że kolejne wersje systemu dla tych urządzeń będą w stanie uruchomić… Programy linuksowe. Dzięki temu sprzęt ma pozbyć się etykiety zabawki a my otrzymamy nowe możliwości. Co prawda aplikacje będą uruchamiane w wirtualnej maszynie. Ale takiej stworzonej specjalnie na potrzeby Chromebooka, kompletnie zintegrowanej z ChromeOS. Wspomniane programy mają uruchamiać się w oka mgnieniu, a instalować je będziemy mogli za pomocą komendy… Fanfary… apt-get.
Posiadacze Pixelbooków mogą już zacierać dłonie, a użytkownicy starszych konstrukcji doczekają się zapewne aktualizacji w niedługim czasie. Tak jak i doczekali się obsługi aplikacji z Androida, itp.

No dobrze, ale o ile w przypadku Google od czasu do czasu przenikają jakieś doniesienia, że ten Linux plącze się na desktopie ich deweloperów, Androidzie i ChromeOS, o tyle zapał jakim zapałał do Linuksa Microsoft może nieco zastanawiać. No dobrze, Azure gdzie połowa maszyn wirtualnych to Linux. No dobrze, integracja w Windows 10 Basha i innych. Kto o tym nie słyszał. Ale Linux na sprzęcie dedykowanym Windowsowi? Always Connected PC to właśnie takie coś. Coś napędzane procesorami Qualcomm Snapdragon 835 i działające jedynie pod Windowsem 10 skrojonym na potrzeby architektury ARM. Dacie wiarę? Platforma na której do tej pory nie udało się uruchomić Linuksa – przynajmniej na urządzeniach dedykowanych ACPC – Asus NovaGo, HP Envy x2, Lenovo Miix 630. A jest o czym marzyć. Urządzenia wytrzymujące do 20 godzin na baterii działają na wyobraźnie. Szczególnie mocniej, gdy poczyta się zapowiedzi Microsoftu, że stworzą rozwiązanie pozwalające na uruchomienie Ubuntu (tak, Ubuntu) na Windowsie napędzającym taką maszynę.

Na konwencie Microsoft Build 2018 zaprezentowane zostało właśnie rzeczone Ubuntu uruchomione na ARM PC. Niestety jako aplikacja ze sklepu Microsoft Store. Zatem na nic nasze sny o natywnie wolnym systemie na ACPC. Co więcej, to rozwiązanie daje nam dostęp jedynie do terminalu. Jednak jakich można epitetów użyć, by określić ten sukces, nawet jeśli odbywa się to pod przykrywką świadomych działań Microsoftu?

Powyższe doniesienia prawdziwych twardzieli raczej nie zauroczą. Każdy, kto potrafi samodzielnie zainstalować lub używać zainstalowanego Linuksa nie zatęskni do protez oferowanych przez gigantów. Najbliżej ideału jest jednak Google. Każdy program, czy to graficzny czy tekstowy na Chromebooku. To już coś.

...

Nowi linuxowcy! Absurd. Jak cos odnosi sukces to corpo chcą od razu sie pod to podczepic. Dla kasy oczywiscie.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 17:06, 12 Maj 2018    Temat postu:

Postrach cenzorów już w stabilnej wersji: tego komunikatora nie ma jak blokować
Strona główna Aktualności11.05.2018 14:24

eimi
Adam Golański
@eimi
Z jednej strony wskutek starań władz państwowych coraz trudniej o poufność i swobodę anonimowej komunikacji w Sieci, z drugiej powstają coraz lepsze narzędzia, które taką komunikację mimo wszystko umożliwiają. Należy do nich Briar, opensource’owy komunikator, który nie potrzebuje centralnego serwera, i który synchronizuje wiadomości przez sieć Tor, a gdy nie ma dostępu do Internetu, to wykorzysta sieć lokalną, a nawet połączenia Bluetooth.

Briara po raz pierwszy zobaczyliśmy w wersji beta niespełna rok temu. Udostępniony nie tylko w Google Play, ale też w niezależnym sklepie z wolnymi aplikacjami F-Droid, obiecywał najwyższy poziom prywatności i odporność na wszelkie próby cenzury. Dowodem na jego wartość był raport badaczy z firmy Cure53, którzy choć znaleźli w programie trochę niedociągnięć, to jednak uznali go za dobrze radzący sobie w kwestiach prywatności i bezpieczeństwa.

REKLAMA

Z pracami nad Briarem nie spieszono się bardziej niż trzeba. Stwierdzono, że pierwsza stabilna wersja komunikatora pojawi się wtedy, kiedy będzie gotowa. Gotowość tę osiągnięto po 10 miesiącach prac, podczas których usuwano jedynie usterki, nie wprowadzając do aplikacji niczego nowego, a jedynie zbierając opinie użytkowników.

Uproszczony schemat architektury Briara
Uproszczony schemat architektury Briara
Wydana w tym tygodniu stabilna wersja nie zawiera więc nic więcej w stosunku do tego, o czym pisaliśmy w momencie premiery wersji beta. Wciąż naszych rozmówców możemy dodać do listy kontaktowej jedynie poprzez zeskanowanie ich unikatowych kodów QR – wymaga to więc nawiązania wpierw realnego kontaktu. Rozwiązano za to problem nadmiernego zużycia energii przez komunikator, obecnie nie powinien on już tak bardzo wpływać na czas pracy smartfonu.

Od tego wydania rozpoczyna się rozwój nowych funkcjonalności dla Briara. A będzie ich trochę. Pojawić się ma możliwość zdalnego dodawania kontaktów bez ich wcześniejszego spotykania i wysyłania obrazków jako załączników wiadomości. Dalej ulepszana ma być energooszczędność aplikacji. Rozpoczęły się też prace, które umożliwią wysyłanie wiadomości użytkownikom będącym offline – spore wyzwanie, biorąc pod uwagę brak centralnego serwera.

W tym roku położone zostaną podstawy pod zbudowanie klienta desktopowego. Wyczekiwany przez użytkowników klient na iPhone’a raczej jednak się nie pojawi, ze względu na ograniczenia systemu iOS: Apple nie pozwala na długotrwałe utrzymywanie w tle połączeń sieciowych, niezbędnych dla komunikacji P2P.

Briar znalazł się w naszej bazie aplikacji na Androida, od tej pory już w wersji stabilnej. Polecamy zapoznać się z tym ciekawym sposobem na ultraprywatną komunikację.

...

I to jest to czego nam trzeba!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 20:18, 19 Maj 2018    Temat postu:

Niech żyje FreeOffice 2018
autor Salvadhor • 18 maja, 2018 • 9 komentarzy

00


Czy w dzisiejszych czasach powinniśmy kłopotać się takimi niuansami jak edytor tekstu i jego format pliku tekstowego? Niestety jednak musimy. Wiodące rozwiązanie pod postacią Microsoft Office na tyle mocno odcisnęło swe piętno w subkulturach i życiu codziennym, że otwieranie popularnych plików .doc i .docx to dla niektórych obowiązkowy rytuał. I nawet jeżeli nie możemy uruchomić wspomnianego pakietu na naszym systemie, to pliki niekiedy musimy otworzyć i zapisać w tym formacie. Rozwiązań jest oczywiście wiele, choćby wolny LibreOffice. Ale o dziwo większą zgodność ze wspomnianymi formatami deklaruje SoftMaker FreeOffice 2018.


FreeOffice 2018 z testowym .docx
A cóż to takiego? Producent komercyjnego pakietu biurowego SoftMaker Software GmbH jest ze swoim produktem na rynku już od… 1994 roku. Dlaczego tak mało o nim słyszeliśmy? Cóż, z pewnością wpływ na to miały kwestie jakościowe, dostępność, cena i inne parametry dzięki którym to właśnie teraz rozmawiamy o Microsoft Office jako rozwiązaniu wiodącym. Ale najnowsze wydanie SoftMaker Office 2018 i jego darmowej wersji FreeOffice 2018 redefiniuje scenę pakietów biurowych.
Porównanie produktu komercyjnego i darmowego jest oczywiste. FreeOffice 2018 jest w większości pozbawiony zaawansowanych funkcji znanych z wersji płatnej. Niemniej nadal posiada ich tyle, że przeciętny użytkownik nie wykorzysta nawet 50% z nich. Ale to co czyni z niego ciekawą alternatywę dla użytkowników Linuksa to fakt, że program jest dostępny w 32 i 64bitowych paczkach (dla Windowsa tylko 32bit) oraz zapewnia obecnie chyba najlepszą zgodność z formatem .docx. Dodajmy do tego atrakcyjny (kwestia gustu lub przyzwyczajenia) interfejs i pewien z początku niezauważalny fakt:

PID UŻYTK. PR NI WIRT REZ WSP S %CPU %PAM CZAS+ KOMENDA
2618 test 20 0 1346,1m 225,0m 122,0m S 0,0 2,8 0:11.05 soffice.bin
2121 test 20 0 483,0m 85,6m 50,7m S 2,0 1,1 0:12.12 textmaker

LibreOffice 6.0.x i ten sam docx

Otwarcie tego samego dokumentu w LibreOffice 6.0.x i FreeOffice 2018 obnaża nie tylko różnice w zapotrzebowaniu na pamięć RAM (225MB vs 85MB na korzyść FreeOffice 2018). Dokument wygląda po prostu inaczej i według podglądu w PDF bliżej oryginału jest FreeOffice. O ile zapotrzebowanie na RAM być wynikiem „wycięcia” wielu funkcji z tego edytora, to poprawna interpretacja docx jest już po jego stronie bez względu na inne parametry.
Ten pakiet to oczywiście nie tylko wspomniany edytor. PlanMaker i Presentations (obsługa XSLX i PPTX) to arkusz kalkulacyjny i edytor prezentacji które potwierdzają rzetelność rozwiązań SoftMaker Software. Każdy ze zbiorem funkcji i możliwości wystarczających do zaawansowanych prac. Od tej pory użytkownik ma realną szansę na poprawne otwieranie przesyłanych mu dokumentów (w wiodących formatach).


A tak ma wyglądać testowy docx

Co więcej, pakiet można legalnie używać nawet w firmie. Producent po wypełnieniu formularza „pobraniowego” wyśle nam na podany adres email klucz aktywacyjny. Stosowne paczki można pobrać spod tego adresu.
Wobec powyższej optymistycznej propagandy należy pamiętać o dwóch szczegółach. Pakiet jest oprogramowaniem zamkniętym. I na dzień dzisiejszy nie doczekał się polskiej wersji językowej.

...

Czyli kolejny sukces. Wspaniale! Moze ktos spolszczy przynajmniej glowne funkcje. Szkoda nie miec! A dla malych firm gigantyczna obnizka kosztow!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 10:19, 20 Maj 2018    Temat postu:

Warto czekać na nowe Ubuntu. Znamy już listę najważniejszych nowości
Strona główna Aktualności19.05.2018 15:31
fot. Ubuntu na Facebooku
b.munro
Maciej Olanicki
@b.munro
Ostatnie wydania Ubuntu nie mogą być powodem do entuzjazmu użytkowników pulpitowej odsłony tej dystrybucji. Wiemy już, że powrót do pełnego GNOME Shell podyktowany był wyłącznie optymalizacją finansową, gdyż rezultat migracji można najwyżej ocenić najwyżej na dostateczny. Niewiele pomógł tutaj dock mający być protezą tego z Unity, zaś wydanie 18.04 przyniosło niewiele nowości, za to sporo błędów. Canonical w swoim podejściu do rozwoju systemu operacyjnego zaczął (a raczej musiał zacząć) małpować Microsoft – ze względów finansowych priorytetem jest oprogramowanie serwerowe. Perły rzuca się przed udziałowców, nie przed…


A systemy pulpitowe? Jakieś są, ale kto by się nimi przejmować. Wszak bardziej wymagający użytkownik i tak sięgnie po komputery z macOS-em, a mniej wymagający jest bezkrytyczny. Użytkownicy przyzwyczajeni do dystrybucji Linuksa i tak są tutaj w komfortowej sytuacji – nie brakuje przecież systemów, które chętnie przejmą po Ubuntu pulpitową schedę. Ale czy na pewno Canonical powiedział już ostatnie słowo i tempo rozwoju dystrybucji w kolejnych miesiącach będzie tak zachowawcze, jak ma to miejsce od jesieni? Według opublikowanego przez korporację raportu, stanowiącego de facto zapowiedź nowości w Ubuntu 18.10 – nie.

Pierwszym, co nasuwa się po lekturze najnowszego wpisu Willa Cooke’a, dyrektora ds. dystrybucji pulpitowej w Canonical, jest wniosek, że Ubuntu 18.04 to wydanie, w którym wiele zapowiadanych wcześniej zmian nie zdążyło się pojawić. Między wersami sprawne oko dojrzy także komentarz do dużej liczby błędów, jakie pojawiły się w wydaniu, bądź co bądź, o wydłużonym okresie wsparcia. Cook zaczyna bowiem wpis o nowościach Ubuntu 18.10 zapowiedzią Ubuntu 18.04.1. Pojawi się w nim między innymi nowość w ekranie logowania – będzie on umożliwiał wykorzystanie wbudowanych w laptopy czytników papilarnych do odblokowywania systemu. Ponadto w Ustawieniach Gnome’a skonfigurować będzie można gniazda Thunderbolt, zaś paczki snap obsługiwać będą serie interfejsów D-Bus, zwane XDG Portals, które umożliwiają komunikację między procesami.


A co czeka nas jesienią? Nacisk, co chyba nikogo nie dziwi, położono na paczki snap. Optymalizacja Snapcrafta poskutkować ma odczuwalnym skróceniem czasu potrzebnego na uruchomienie programów snap. Ponadto zmiany nastąpią tutaj także dla kluczowych pakietów – Canonical chce, by Chromium w Ubuntu już od wydania 18.10 dostępny był tylko jako snap właśnie. Zmiana ta ma mieć także rezultat wsteczny, gdyż w starszych wydaniach o wydłużonym wsparciu, paczki DEB z Chromium przestaną być dostępne. Decyzja ta nie jest raczej zaskoczeniem – kluczowy pakiet musi być w tej chwili budowany aż dla czterech wydań Ubuntu (16.04-18.10), co pożera mnóstwo zasobów Canonicala.

GS Connect w powłoce GNOME Shell (źródło: Andy Holmes, GitHub)
Nowości pojawią się także w komunikacji pomiędzy urządzeniami. Domyślnie zainstalowany będzie klient DLNA, który umożliwi wymianę danych przez WI-Fi przede wszystkim z telewizorami. W ten sposób bez konieczności instalacji dodatkowych pakietów pecet z Ubuntu stanowić będzie mógł dla telewizora w tej samej sieci serwer multimediów. Znacznie ciekawiej prezentuje się jednak opisywana już przez nas wcześniej pełna integracja danych i funkcji z Androidem. Już jesienią będziemy zatem mogli używać smartfonów z systemem Google do sterowania odtwarzaniem czy wykorzystać ekran dotykowy jako gładzik. Będzie to możliwe dzięki domyślnej dostępności GSConnect, czyli wersji KDE Connect dostosowanej do środowiska GNOME. Trzeba przyznać, że ta nowość zapowiada się ekscytująco, szczególnie po śmierci projektu Ubuntu Convergance.

Temat communitheme będzie w Ubuntu 18.10 domyślnym.
W ostatnim wydaniu Ubuntu pojawiłą się opcja „minimalnej instalacji” – po jej wybraniu użytkownik otrzymywał system wyekwipowany w jedynie najważniejsze narzędzia. Wkrótce (lecz Cooke nie deklaruje, że już jesienią) mają się pojawić znacznie dalej idące zmiany w instalatorze. Canonical chce przenieść swoje doświadczenia z wydania serwerowego i w przyszłości zaproponować wykorzystanie osiągnięć instalatora curtin, doświadczeń zebranych podczas dostarczania MAAS (Metal-As-A-Service, czyli wykorzystywania już istniejącej fizycznej infrastruktury serwerowej do uruchamiania chmury) oraz… frameworka Electron, niestety. Instalator Ubuntu już dziś jest ociężały, a plany zarysowane przez Shuttlewortha nie dają wiele nadziei na zmianę tego stanu rzeczy.

W przeciwieństwie do Ubuntu 18.04, jesienią nie zabraknie czegoś „dla oka”. Otrzymamy bowiem całkowicie nowy temat GTK. Miał on się pojawić już w kwietniu, jednak rozwijana przede wszystkim przez społeczność skórka miała być na to zbyt niedopracowana. Odświeżenie wyglądu Ubuntu ma przebiegać kompleksowo: obok nowych obramowań okien, pojawi się także nowy zestaw ikon, a zapewne i dźwięków. Społecznościowy temat GTK, który już wkrótce stanie się dla Ubuntu domyślny, testować można już dzisiaj. Społeczność udostępnia go jako paczkę snap., wystarczy w terminalu wydać poniższe polecenie.

sudo snap install communitheme

W Ubuntu 18.04 można alternatywnie wykorzystać PPA:

sudo add-apt-repository ppa:communitheme/ppa
sudo apt update
sudo apt install ubuntu-communitheme-session

Jedną z ciekawszych nowości, którą nazwać można metasystemową, zostawiliśmy na koniec. W ostatnim czasie Adam pisał o telemetrii w Ubuntu, podkreślając, że przykład z niej może brać Microsoft. Przejrzystość raportów i wąski zakres zbieranych danych to z całą pewnością złoty środek pomiędzy stosowaniem telemetrii a byciem w porządku wobec swoich użytkowników. Teraz Will Cooke zapowiedział, że zanonimizowane dane zebrane o użytkownikach będą… ogólnodostępne! Canonical ma zamiar uruchomić witrynę, która stanie się krynicą wiedzy o użytkownikach Ubuntu, co będzie przecież nie do przecenienia dla analityków i deweloperów. Oczywiście na telemetrię można w Ubuntu nie wyrazić zgody.

Ubuntu 18.10 będzie nosiło nazwę Cosmic Cuttlefish (Kosmiczna Mąta). Zapowiada się na ciekawą propozycję, przede wszystkim ze względu na implementację bogatych możliwości integracji z Androidem dzięki gnome’owemu odpowiednikowi KDE Connect, czy optymalizacji sekwencji startowych aplikacji dystrybuowanych via snap. Esteci być może docenią odświeżony temat GTK. Zanosi się także na kilka kontrowersyjnych zmian (Electron w instalatorze), które jednak pojawią się dopiero w przyszłorocznych wydaniach. Jesień dla użytkowników Ubuntu rysuje się zatem dość optymistycznie.

...

Oczywiscie warto. Jest to oczywiscie trudna praca i nie wszystko sie udaje. Trzeba dazyc do jakiejs stabilnej wersji ktora wreszcie bedzie strzalem w 10 i zostanie zapamietana na wiele lat.



Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 21:06, 22 Maj 2018    Temat postu:

Duch przeszłości: MCC Interim Linux
Reklama na Linuxiarze.pl


Przeszukując sieć w celu przygotowania do ArchiveOS kolejnej archiwalnej i często już zapomnianej dystrybucji Linux lub innego systemu operacyjnego, natrafiłem na rzadki unikat, warty wspomnienia, choćby w kilku zdaniach.

MCC Interim Linux to dystrybucja Linuksa wydana po raz pierwszy w lutym 1992 roku przez Owena Le Blanc z Manchester Computing Center (MCC), które jest częścią Uniwersytetu w Manchesterze. Była to pierwsza dystrybucja Linuksa stworzona dla użytkowników komputerów, którzy nie byli ekspertami od Uniksa i zawierała instalator oparty na menu, który instalował zarówno jądro, jak i zestaw narzędzi dla użytkownika końcowego oraz narzędzia programistyczne.

MCC po raz pierwszy został udostępniony przez anonimowy FTP w listopadzie 1991r. Irytacja Le Blanka z jego wcześniejszymi eksperymentami z Linuksem, np.: brak działającego fdisk-a, potrzeba korzystania z wielu repozytoriów FTP w celu nabycia całego niezbędnego oprogramowania i problemy z wersją bibliotek zainspirowały go do stworzenie własnej dystrybucji.

Le Blanc twierdził, że odnosił się do dystrybucji jako „interim (tymczasowej)”, ponieważ „… nie są one zamierzone jako ostateczne lub oficjalne, są małe, harmonijne i umiarkowanie testowane. Nie odpowiadają gustowi każdego użytkownika, ale powinny zapewnić stabilną bazę, do której można dodać inne oprogramowanie.”

Trzeba nadmienić, iż w tamtych czasach pojęcie dystrybucji Linux nie było jeszcze znane (rozpowszechnione), a instalację jądra Linux, kompilatorów, bibliotek i dopiero w następnej kolejności aplikacji użytkowych wykonywano ręcznie, pobierając poszczególne elementy systemu z róznych źródeł – od ich twórców (deweloperów).

Jeszcze przed pierwszym wydaniem MCC, najbliższym przybliżeniem do dystrybucji Linuksa były obrazy dyskietek HJ Lu’a o nazwie „Boot-root”. Były to dwie dyskietki 5¼ „zawierające jądro Linuxa i minimum narzędzi wymaganych do uruchomienia”. Tak więc były to minimalne narzędzia, które pozwalały na ładowanie z twardego dysku wymagającego edycji głównego rekordu rozruchowego za pomocą edytora szesnastkowego.

Pierwsza wersja systemu MCC Interim Linux została oparta o jądro Linux 0.12 i wykorzystywała kod pamięci RAM Theodore Ts’o do skopiowania małego obrazu głównego do pamięci, uwalniając stację dyskietek dla dodatkowych dyskietek narzędziowych.

Le Blanc stwierdził także, że jego dystrybucje były „nieoficjalnymi eksperymentami”, których celami było:
– dostarczenie prostej procedury instalacji
– dostarczenie pełniejszej procedury instalacji
– dostarczenie usługi tworzenia kopii zapasowych/odzyskiwania
– tworzenie kopii zapasowej swojego obecnego systemu
– możliwość kompilacji, łączenia i testowania każdego pliku binarnego z bieżącą wersją jądra, gcc i bibliotek
– dostarczenie stabilnego systemu bazowego, który można zainstalować w krótkim czasie i do którego można dodać inne oprogramowanie przy stosunkowo niewielkim nakładzie pracy.

W rzeczy samej, nigdy nie podjęto próby rozpowszechnienia go za pomocą szerokiej gamy oprogramowania, a nawet systemu okien X386.

Wkrótce po pierwszym wydaniu MCC pojawiły się inne dystrybucje, takie jak TAMU, stworzone przez ludzi z Texas A&M University, MJ Martina Juniusa, Softlanding Linux System i mały system bazowy H J Lu dla małych przedsiębiorstw. Te z kolei zostały szybko zastąpione przez Debiana i Slackware, najstarsze i wciąż aktywne dystrybucje.

Dystrybucja MCC Interim 1.0 wykazała, że Debian był „pięciokrotnie większy niż MCC i dość obszerny”, a ostatnio wydana wersja MCC 2.0+ z 4 listopada 1996 roku zachęciła użytkowników do przejścia na Debiana, zapewniając wsparcie związane z migracją.

Wisienką na torcie jest fakt, iż obrazy instalacyjne ostatniego wydania MCC 2.0+ są wciąż dostępne i można je pobrać, np. z naszego ArchiveOS: MCC Interim.

Instrukcja instalacji MCC opisana przez Owena Le Blanc (tłumaczenie własne z języka angielskiego):

Obrazy dysków, które mogą być potrzebne do zainstalowania MCC Interim Linux. Instalacja wymaga dysku (3) i dysku (1) lub dysku (2). Instalacje wymagające sterowników SCSI i sterowników napędów CD-ROM innych niż IDE/SCSI/ATAPI również wymagają dysku (4). Uruchom komputer z odpowiedniego dysku rozruchowego i postępuj zgodnie z instrukcjami.
(1) boot.1200.gz: Ten plik tworzy dyskietkę startową 5,25 cala. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw.
(2) boot.1440.gz: Ten plik tworzy 3,5-calową dyskietkę startową. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw.
(3) root.gz: Ten plik powoduje, że dyskietka główna jest wymagana we wszystkich instalacjach. Istnieją dwa sposoby korzystania z tego pliku:
– (a) Skopiuj go na dyskietkę w trybie surowym bez obrzucania. Jest to normalny sposób korzystania z niego. Zalety: jest szybszy w użyciu. Wady: nie zadziała, jeśli masz 4 Mb lub mniej pamięci; nie można go łatwo zmienić.
– (b) Rozpakuj i skopiuj go na dyskietkę w trybie raw. Zrób to tylko wtedy, gdy musisz zmienić dysk lub zainstalować go w systemie z 4 MB pamięci. Nie będzie działać na dyskach 5,25 cala. Zalety: łatwiej jest zmienić dysk; działa na maszynie 4 Mb. Wady: działa znacznie wolniej.
(4) scsi-cd.gz: Ten plik tworzy dysk sterownika scsi-cd. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw. Nie potrzebujesz tego dysku, chyba że potrzebujesz sterownika dysku SCSI lub sterownika napędu CD-ROM innego niż IDE/SCSI/ATAPI.

...

Faktycznie prehistoria.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 20:00, 24 Maj 2018    Temat postu:

Superlekka odmiana Ubuntu zrywa z tradycją, wprowadza nowoczesny pulpit
Strona główna Aktualności22.05.2018 14:33

eimi
Adam Golański
@eimi
Nie tylko na Ubuntu 18.10 warto będzie czekać. Rozpoczął się też przecież cykl rozwojowy dla pozostałych jesiennych odmian smakowych systemu Canonicala, a między nimi znanego z lekkości Lubuntu. To właśnie dla tej dystrybucji wydanie 18.10 będzie rewolucją. Bez zmiany nazwy zmieniony zostaje cały pulpit, przynosząc użytkownikom nawet starszych komputerów środowisko o skromnych wymogach co do pamięci, a responsywne niczym Windows 2000.

Lubuntu od swojego powstania wykorzystywało środowisko graficzne LXDE. Zbudowane na bazie biblioteki GTK+ 2, wyróżniało się bardzo małym zużyciem pamięci i energii – potrzebowało o połowę mniej RAM niż np. Unity w normalnym Ubuntu. W 2013 roku główny opiekun LXDE Hong Jen Yee poczuł się jednak rozczarowany kierunkiem rozwoju biblioteki GTK+ 3, w szczególności jej stale rosnącym apetytem na pamięć. To co dla deweloperów GNOME 3 było nieodzowne, dla niego okazało się szkodliwe. Dlatego zrobił śmiały krok i zaczął eksperymentować z biblioteką Qt.

Wynik eksperymentu był ciekawy. Udało się przepisać kluczowe komponenty LXDE na Qt. Wtedy to z chińskim deweloperem skontaktowali się ludzie rozwijający swoje własne lekkie środowisko graficzne Razor-qt, z propozycją bardzo nietypową jak na linuksowy świat. Skoro nasze cele są tak podobne, połączmy nasze siły – napisali. Szybko zdołano ustalić warunki współpracy, już w lipcu 2013 roku LXDE-Qt został połączony z Razor-qt w jeden projekt LXQt. Zarazem jednak deweloperzy LXDE zapowiedzieli, że będą wciąż rozwijać wersję środowiska bazującą na bibliotece Gtk+ 2.

Minimalistyczny pulpit Lubuntu 18.10 na starcie
To jednak nie ma żadnej przyszłości: stara wersja bibliotek traci wsparcie, z czasem będzie wycofywana. Sądząc po aktywności deweloperów LXDE, praktycznie nic się tam już nie dzieje. Z kolei LXQt rozwija się bardzo dynamicznie: wczoraj wydano nową wersję środowiska oznaczoną jako 0.13. Niski numer niech nikogo nie zwiedzie, to nie jest wersja alfa – po prostu zadeklarowano, że LXQt 1.0 musi obsługiwać w pełni serwer grafiki Wayland. Za stabilne uznawane są wszystkie wydania od 0.11.

Lubuntu było najpopularniejszą z lekkich dystrybucji, które domyślnie wykorzystywały pulpit LXDE. Deweloperzy Lubuntu zdawali sobie jednak sprawę z tego, że nie ma to żadnej przyszłości. Na początku maja główny menedżer projektu Simon Quigley ogłosił, że czas posłać LXDE do lamusa. Lubuntu 18.10 będzie domyślnie oferowane z pulpitem LXQt. To ogromna zmiana, wiążąca się ze zmianą dziesiątków komponentów systemowych i domyślnych aplikacji.

Obietnicę właśnie zrealizowano w pierwszym deweloperskim wydaniu tej wersji, przygotowanym dla 32- i 64-bitowych architektur x86. Pobraliśmy ją do testów, zainstalowaliśmy (ciekawostka, wykorzystywany jest niezależny instalator Calamares, a nie instalator ubiquity z Ubuntu) i musimy przyznać, że jesteśmy pod wrażeniem. Widać pozostałości starego środowiska, pewne niespójności z konfiguracją, ale ogólnie jest to system, który już teraz można uruchomić i po prostu z nim pracować.

Lubuntu 18.10, widoczna m.in. przeglądarka Falkon i menedżer plików PCManFM
Widać, że inspirowano się KDE, włącznie z domyślnym motywem Breeze, ale niech nikogo to nie zmyli: LXQt nie ładuje bibliotek KDE, działa też odczuwalnie szybciej na słabym sprzęcie niż Plazma. Interfejs jest zrozumiały dla każdego, kto kiedykolwiek pracował z Windowsem 95 i późniejszymi – menu Start, pasek zadań, zasobnik systemowy, żadnych fanaberii. Do tego oczywiście cała biblioteka oprogramowania Ubuntu.

Właściwie to tego oprogramowania jest za dużo, jak na lekką dystrybucję. Można mieć nadzieję, że do finalnego wydania zostanie ono usunięte. Obecnie domyślną przeglądarką jest Falkon (znany niegdyś jako Qupzilla), menedżerem plików PCManFM, klientem torrentów Qtransmission, odtwarzaczem wideo SMPlayer. Nie wiadomo po co jednak preinstalowany jest Thunderbird, edytor dźwięku Audacious czy kombajn do e-booków Calibre.

Nie wiadomo jeszcze, czy Lubuntu uniezależni się od tego, co w Kubuntu. Niektóre rzeczy zostały zapożyczone z Plazmy: menedżer partycji, menedżery pakietów Muon i Plasma Discover, menedżer archiwów Ark, a nawet kalkulator KCalc. Przydałoby się poszukać albo stworzyć lżejsze odpowiedniki. Warto jednak pamiętać, że już od wydania Lubuntu 18.04 zwiększono minimalną ilość pamięci do 1 GB. Takie czasy. Samo LXQt w Lubuntu 18.10 po uruchomieniu całego pulpitu zajmuje około 290 MB – to nieco więcej, niż LXDE w Lubuntu 18.04, które zajmowało około 220 MB. Oczywiście nie oznacza to, że Qt potrzebuje więcej pamięci, po prostu taka jest niezoptymalizowana jeszcze konfiguracja pulpitu i często zbytecznie załadowanych komponentów.

Aktualną wersję obrazu instalacyjnego ISO Lubuntu 18.10 Cosmic Cuttlefish możecie znaleźć tutaj. Jeśli coś nie będzie działało, to nie miejcie pretensji do nikogo, do październikowego finalnego wydania zostało jeszcze dużo czasu.

...

Trzeba jeszcze dopracowac. Istotnie im oszczedniej tym lepiej. Bedzie chodzilo plynniej.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 12:11, 05 Cze 2018    Temat postu:

Linuksa 4.17 otrzymaliśmy zgodnie z terminem, po 63 dniach prac deweloperów. Niespodziewanie zmieniła się nazwa kodowa kernela, to już nie „Fearless Coyote”, lecz „Merciless Moray”. Spodziewanie za to Linus Torvalds nie zmienił wiodącego numerka wersji – na Linuksa 5.0 jeszcze troszkę poczekamy, mimo że warunek zmiany numeracji został spełniony: liczba obiektów w repozytorium kodu źródłowego przekroczyła właśnie sześć milionów. A co innowacyjnego w najważniejszym z kerneli tej planety? Zapraszamy do przeglądu nowości, jakie przynosi Linux 4.17.

Koniec sennych koszmarów
Nowa wersja kernela rozwiązuje problem z dziwnym zachowaniem rdzeni w procesorach Intela, które w stanie uśpienia nagle doświadczały nieuzasadnionych niczym wybudzeń. Odkryli to informatycy z Uniwersytetu Technicznego w Dreźnie, przypisując problem interakcjom między procesami działającymi w tle i zarządcą jałowego biegu. Doprowadziły one do błędnych przewidywań czasu usypiania rdzeni w trakcie wysokiego zużycia energii. Jeśli następująca po aktywności faza wybudzenia trwała dłużej, np. do 10 sekund, nie było jak skorygować decyzji w tym czasie.

image
Najlepszą strategią zaradzenia problemowi okazało się wprowadzenie swoistego „budzika”, który jest w stanie poprawić złą decyzję co do stanu uśpienia w krótkim czasie. Przykładowa implementacja została oddana linuksowej społeczności, a następnie trafiła do podsystemu zarządzania jałowym biegiem. Efekt jest taki, że system śpi teraz znacznie efektywniej, zmniejszając zużycie energii o około 10%. Co więcej, aplikacje o skróconych cyklach uśpienia korzystają z mniejszych opóźnień i co za tym idzie, wyższej wydajności.

Co ciekawe, ta zmiana ma też wpływ na procesory AMD – do tej pory usypiano je wywołaniem, które wpędzało w niezbyt głęboką drzemkę. Teraz kernel potrafi przełączyć procesory Ryzen i Epyc w znacznie głębszy stan uśpienia.

Lepsze sterowanie ładowaniem baterii
Wiele ciekawych rzeczy stało się możliwych w kwestii kontroli zasilania. Można m.in. zdefiniować poziomy naładowania baterii, od których firmware zacznie i przestanie je ładować. Takimi funkcjami dysponują niektóre notebooki, wykorzystując je do wydłużenia czasu życia baterii. Wcześniej jednak można było to ustawić tylko z poziomu UEFI/BIOS-u. Teraz na kompatybilnym sprzęcie (m.in. Thinkpadach) będzie można ustawić to z poziomu systemu operacyjnego.

Chronione treści w grafice Intela
Powszechnie dziś wykorzystywany do ochrony treści mechanizm High-bandwith Digital Content Protection (HDCP) uniemożliwia przesyłanie wideo wysokiej rozdzielczości w formie, która pozwalałaby na łatwe tworzenie ich kopii. Osoby zainteresowane oglądaniem chronionych przez DRM treści wideo nie miały łatwo na Linuksie. Jako że nie był on wspierany przez intelowe sterowniki, nie można było na Linuksie takich treści oglądać np. na zewnętrznym wyświetlaczu.

Teraz dzięki pracy deweloperów Chrome OS-a, sterowniki i915 są w stanie poprawnie odtworzyć wideo wysokiej rozdzielczości – na chromebookach możliwe jest już odtwarzanie tak chronionych treści. W teorii powinno być to możliwe także na innych linuksowych systemach – sprawdzimy to jak kernel 4.17 trafi w nasze ręce.

Nowy sterownik AMD dla prawie wszystkich
Ta nowa infrastruktura grafiki Display Core, którą AMD wprowadziło w Linuksie 4.15, aktywowana jest teraz automatycznie także dla starszych kart graficznych. Dzięki temu na opensource’owym sterowniku będą mogli korzystać z HDMI 2.0 oraz przekierowania dźwięku na HDMI i DisplayPort. Dodano też wsparcie dla nowych czipów Vega12, które powinny zadebiutować lada moment.

Możliwe jest już także wykorzystanie platformy obliczeniowej ROCm (RadeonOpen Compute) ze starszymi układami graficznymi. W kernelu 4.18 pojawić się ma wsparcie dla ROCm na współczesnych architekturach Polaris i Vega.

Kernel odszyfruje strumień danych TLS
Ciężka praca odszyfrowania danych z Transport Layer Security została przeniesiona na kernel. Już w Linuksie 4.13 moduł KTLS pozwalał na szyfrowanie danych wysyłanych po TLS, teraz potrafi jest także bezpośrednio odszyfrować. Przekłada się to na zwiększenie wydajności HTTPS i innych protokołów komunikacyjnych korzystających z TLS. Obsługa tego na poziomie kernela to mniej operacji na pamięci, a to pozwala na znacznie efektywniejsze przetwarzanie danych, zwiększa przepustowość i zmniejsza obciążenie systemu i opóźnienia. KTLS lepiej się także integruje z akceleratorami kryptograficznymi.

Oczywiście wciąż kwestie takie jak nawiązanie i konfiguracja połączenia są przetwarzanie przez biblioteki działające w przestrzeni użytkownika, takie jak OpenSSL.

Bezpieczniej i wydajniej w systemach plików
Podstawowy linuksowy system plików EXT4 został zabezpieczony przed uzłośliwionymi obrazami kontenerów, które najwyraźniej mogły linkować do systemu plików hosta, a następnie „wmówić mu”, że są jego częścią… np. podmieniając katalogi /sbin na swoje – i w ten sposób otwierając drogę do uruchomienia malware.

Opiekun systemu Ted Ts’o wciąż jednak podkreśla, że fanom kontenerów nie powinno się wydawać, że podpinanie obrazów systemów plików jak popadnie jest rozsądną rzeczą. Ostrzeżenie słuszne, biorąc pod uwagę rosnącą popularność paczek snap Canonicala.

Z kolei system plików XFS obsługuje opcję montowania lazytime, stosowaną od jakiegoś czasu właśnie w EXT4. Potrafi ona wyraźnie zwiększyć wydajność systemu plików, opóźniając zapisy wywołane potrzebą aktualizacji metadanych.

Na froncie walki z widmami…
Skoro już o bezpieczeństwie była mowa, nowa wersje kernela przynosi ulepszenia w zabezpieczeniach przed Spectre v1 i v3, uporządkowano też kod wywołań systemowych, aby chronić przed atakami korzystającymi ze spekulatywnego wykonywania kodu.

Zmniejszono też narzut generowany przez zabezpieczenia przed atakiem Meltdown na stare procesory, które nie obsługiwały mechanizmu PCID (Process Context Identifiers) – teraz takie systemy z aktywną łatką powinny być znacznie bardziej responsywne.

Oprócz tego kernel 4.17 dostał zabezpieczenie przed Spectre v4, niedawno odkrytą wersją ataku o nazwie Speculative Store Bypass. Łatka na większości systemów jednak nie działa, ponieważ zależy od nowych funkcji włączonych z poziomu mikrokodu Intela, a tego mikrokodu jeszcze nie udostępniono użytkownikom.

Z zupełnie innej beczki, framework bezpieczeństwa AppArmor dostał mechanizm mediacji z gniazdkami sieciowymi, będący warunkiem koniecznym dla lepszej izolacji aplikacji uruchamianych z kontenerów snap. Podsystem kryptograficzny oferuje zaś mechanizm Cipher FeedBack, przydatny w systemach korzystających z Trusted Platform Module 2, oraz lekki szyfr blokowy Speck, który świetnie się spisuje na systemach nie mających sprzętowej akceleracji szyfru AES.

Wiosenne porządki
Ilu z nas kojarzy takie architektury procesorowe jak Blackfin, Cris, Frv, M32r, Metag, Mn10300, Score i Tile? Pewnie niewielu. No cóż, działał na nich Linux, ale już działać nie będzie. Linus zdecydował o usunięciu ponad 465 tysięcy wierszy kodu, odpowiedzialnych za wsparcie tych zapomnianych przez świat architektur.

Między innymi za sprawą tych porządków, Linux 4.17 jest mniejszy od Linuksa 4.16 – ubyło mu łącznie około 180 tysięcy wierszy kodu. Bez obaw, następne wakacyjne wydanie będzie już tłustsze. Zaczekamy na nie do sierpnia. A wszyskich zainteresowanych dokładną listą zmian w linuksowym kernelu zapraszamy na Phoronixa. Niestety kernelnewbies zaprzestało publikować swoje podsumowania – ostatnie jest dla kernela 4.15.

...

Znakomite wiadomosci.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 10:59, 07 Cze 2018    Temat postu:

Nowy Linux Mint czeka, by go przetestować: zapowiada się na system nie do zdarcia
Strona główna Aktualności05.06.2018 23:53

eimi
Adam Golański
@eimi
W tym tygodniu dostaliśmy do ręki pierwsze wydanie beta Linux Minta 19 – dystrybucji, którą od dawna polecamy na łamach dobrychprogramów jako wyjątkowo dopracowanego systemu zarówno dla początkujących, jak i tych, którzy chcą by system im po prostu działał. Po całkowitym rozstaniu z odmianą KDE i skupieniu się na środowiskach graficznych bazujących na bibliotekach Gtk+, ta nowa wersja ma się czym pochwalić. Po spędzeniu z Mintem 19 kilkunastu godzin możemy powiedzieć, że z takim właśnie Linuksem można iść śmiało wyzwalać świat PC, dziś wciąż w zdecydowanej większości należący do Microsoftu.

Wydanie Ubuntu 18.04 nie wzbudziło naszego zachwytu. Zbyt wiele rzeczy było niedopracowanych jak na dystrybucję o wydłużonym okresie wsparcia. Kto zaś zaktualizował system z poprzedniego wydania LTS, Ubuntu 16.04, mógł poczuć, jak uwierać potrafi zmiana domyślnego pulpitu z Unity na GNOME, a co za tym idzie, konieczność zerwania z wieloma dotychczasowymi przyzwyczajeniami. Z tym większym podziwem patrzymy na zespół deweloperów Linux Minta, którzy pokazali, że można na bazie Ubuntu 18.04 zrobić coś naprawdę dobrego i nowego, a zarazem nie przeszkadzać użytkownikom w pracy.

System i jego pulpit
Nowe wydanie Minta bazuje na kernelu 4.15 i bazowych pakietach Ubuntu 18.04: dostajemy demona systemd 237, serwer grafiki X.org 1.19.6, biblioteki Gtk+ 3.22.30, Qt 5.9.5, glibc 2.27 i mesa 18.0.0, oraz kompilator gcc 7.3.0. Na tej solidnej podstawie działa środowisko graficzne Cinnamon w wersji 3.8, dostępne są też odmiany z MATE (1.20) oraz Xfce (4.12.3). Tutaj skupimy się na wersji „cynamonowej”, jako najciekawszej.

O Cinnamonie 3.8 pisaliśmy już miesiąc temu, wówczas udostępniono jego testową wersję.

Przypomnijmy najważniejsze nowości:

ulepszenia w bibliotece muffin pozwoliły na znacznie szybsze (nawet czterokrotnie!) rysowanie nowych okienek,
poprawki w menedżerze plików nemo wyraźnie przyspieszyły wyświetlanie zawartości katalogów, przyspieszyły też wyszukiwarkę plików,
poprawiono integrację okienek typu CSD, a więc z dekoracjami rysowanymi w belce okna przez samą aplikację,
znacznie lepiej wyglądają powiadomienia, łatwiej nad nimi też zapanować, jedynie przeglądarki mogą wysyłać więcej niż jedno powiadomienie na pulpit jednocześnie.
Cinnamon ułatwia korzystanie z laptopów – blokuje ekran przed uśpieniem, pozwala na natychmiastowe wyłączenie przez zamknięcie pokrywy, aktywuje też automatycznie gładzik, jeśli nie wykryje podłączonej myszy.
poprawiono też kontrolkę dźwięku – pozwala na niezależne wyciszanie mikrofonu i głośników, a także ustawienie maksymalnej głośności na 150%,
wprowadzono nowy interpreter JavaScriptu SpiderMonkey 52,
dodano wsparcie dla protokołów [link widoczny dla zalogowanych] elogind i systemd-timedated1
praktycznie wszystkie komponenty zostały przepisane na Pythona 3.
„Mięta” nie do zdarcia
Największą gwiazdą tego wydania jest jednak niewątpliwie system Timeshift. Znamy go już z Minta 18.3, ale tutaj stał się kluczowym elementem całego mechanizmu aktualizacji systemu. Mówiąc prostym językiem – żadna aktualizacja nie powinna zepsuć działania Minta 19, w każdym momencie będzie można „cofnąć” czas i przywrócić ostatnią dobrą migawkę systemu.

Już po pierwszym uruchomieniu systemu zobaczymy nowy ekran powitalny, który w pierwszym z kroków poprosi o wybranie pożądanej strategii tworzenia kopii zapasowych. Domyślnie korzystamy z mechanizmu bazującego na protokole rsync i kopii przyrostowych na wskazanym nośniku, tworzonych z określoną częstotliwością. Bardziej zaawansowani użytkownicy, o ile sformatowali podczas instalacji dysk w formacie Btrfs, mogą poprzez Timeshifta skorzystać z jego zaawansowanych mechanizmów migawkowych. Wszystko to oczywiście przez łatwy w użyciu graficzny interfejs.

Co ogromnie interesujące, deweloperzy Minta połączyli Timeshifta z menedżerem aktualizacji. Ten ostatni polega na Timeshifcie jako gwarancie stabilności – jeśli nie skonfigurowaliśmy strategii tworzenia kopii zapasowych, to menedżer aktualizacji będzie o tym nam przypominał.

I bardzo dobrze. Takie podejście pozwoliło teraz domyślnie włączyć automatyczne aktualizacje systemu. Nawet jeśli coś pójdzie nie tak, przywrócenie Minta z migawki zajmuje dosłownie chwilę.

Oprogramowanie na żądanie
Znany z Minta 18.3 nowy menedżer oprogramowania doczekał się licznych poprawek w interfejsie. Czynią go one znacznie ładniejszym i przejrzystszym, szczególnie za sprawą animacji przejść i lepszego ułożenia kategorii. Lepiej działa też nawigacja klawiaturą, można wreszcie wyszukiwać w kategoriach, samo zaś wyszukiwanie jest znacznie szybsze. Wskaźniki aktywności i ładowania pozwalają zaś łatwiej śledzić stan operacji odbywających się w tle.

Trochę zmieniło się też pod maską. Dzięki zastosowaniu wewnętrznego bufora dla źródeł oprogramowania APT i paczek Flatpak, menedżer oprogramowania traktuje oba typy aplikacji na równi, użytkownicy mogą nimi zarządzać tak samo, niczym się nie martwiąc – wreszcie np. zobaczą rozmiar aplikacji z paczki flatpakowej. A dzięki daleko posuniętej optymalizacji tego bufora, menedżer oprogramowania uruchamia się o wiele szybciej niż wcześniej.

Systemowe aplikacje
Mint od dawna rozwija swoje Xapp, lekkie i całkiem niezłe aplikacje systemowe, które stanową nieodłączną część „cynamonowego” pulpitu. W Mincie 19 edytor tekstowy Xed dostał nowe okno preferencji, okno pomocy dla skrótów klawiaturowych oraz nową wtyczkę do automatycznego uzupełniania słów.

Czytnik PDF Xreader też ma nowe preferencje, wsparcie dla dodatkowych pasków narzędziowych i szybki dostęp do ostatnio otwieranych dokumentów PDF i ePUB. Możliwa jest też zmiana rozmiaru wyświetlanych miniatur, oddzielnie dla każdego dokumentu. Poprawiono płynność przewijania, dodano możliwość usuwania notatek w tekście, wreszcie można też zapisać dokumenty ePUB.

Pozostałe ulepszenia
Pojawiła się możliwość formatowania nośników pamięci USB w formacie exFAT, wskazania domyślnego monitora dla formularza logowania w konfiguracjach wielomonitorowych i poprawiono integrację z pobieraniem plików przez Firefoksa – stan pobierania będzie widoczny na liście okien.

Mint domyślnie zawiera nie tylko kodeki multimedialne, ale i fonty Microsoftu, domyślnie w systemie znalazł się kalendarz GNOME, usunięto zaś komunikator Pidgin, znacząco poprawiono wsparcie dla HiDPI, dodano dziesiątki nowych ładnych tapet.

Wypróbujcie nowego Minta 19 „Tara” sami – obraz ISO znajdziecie tutaj. Jak na betę – kawał świetnej roboty.

....

Potrzebny niebywale bo Win10 jest w stanie agonii...


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 10:54, 09 Cze 2018    Temat postu:

Amerykanie uruchomili najpotężniejszy superkomputer na świecie

Stany Zjednoczone po pięciu latach w końcu zdetronizowały Chiny i mogą teraz poszczycić się posiadaniem najpotężniejszego superkomputera na świecie

.nietrolluje 12 min. temu +1
Niestety, niebawem Chiny znowu wskoczą na pierwsze miejsce, a to za sprawą budowanego superkomputera o nazwie Tianhe-3, który będzie dysponował wydajnością na poziomie nawet 1000 petaflopsów.

Niestety bo... ?

Btw. w artykule chyba nie ma nic o OS:
OPERATING SYSTEM Red Hat Enterprise Linux (RHEL) version 7.4

Pewnie polegli na wyłączaniu aktualizacji na Win10 ( ͡° ͜ʖ ͡°)

..

Nie chcieli czarnego ekranu!
Wyscig trwa wiec to sie bedzie zmieniac.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 19:42, 14 Cze 2018    Temat postu:

Driving the Mars Rovers | Linux Journal

O tym jak projekt marsjańskiego łazika Curiosity mający potrwać 90 dni przciągnął się do 14 lat i trwa nadal. Również o systemie operacyjnym, i oprogramowaniu, które ciągnie cały projekt.
KOMENTARZE (3) : najstarszenajnowszenajlepsze

tomasz_B 6 godz. temu 0
No nie wiadomo czy wytrwa tyle bo jeszcze 14 lat nie minęło od lądowania CURIOSITY na marsie ( ͡° ͜ʖ ͡°)

etutuit 7 godz. temu via Android +3
Jakby uzyli Windowsa to misja zostałaby przerwana przez pierwszą aktualizację. Czyli pewnie trwałaby jakieś 2 dni.

WielkoPolski 4 godz. temu 0
@etutuit: zainstalowałaby się nowa wersja Skypa ( ͡° ͜ʖ ͡°)
...

Zarty ale duzo prawdy.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 11:00, 20 Cze 2018    Temat postu:

Publiczny kod za publiczne pieniądze. Dlaczego w Polsce się to nie uda?
rafal.borawskirafal.borawski 15.06.2018 13:53

Roku Linuksa na desktopach nie ma i zapewne jeszcze przez bardzo długi czas zawołanie to będzie wyłącznie okazją do - zazwyczaj kiepskich - żartów, powtarzanych głównie przez osoby niechętne Linuksowi bądź użytkowników tegoż ostatniego, którzy przy tym charakteryzują się zdrowym dystansem do zagadnienia ekspansji “Pingwina” na komputerach osobistych. Ja samego siebie wolę widzieć w gronie tych ostatnich, a już z całą pewnością nie zaliczam się do tych użytkowników Linuksa, którzy z powodu niskiej penetracji rynkowej biurkowo zorientowanych systemów operacyjnych z logo Pingwina, nie mogą spać po nocach i z całej tej zgryzoty chudną w oczach (choć tego ostatniego trochę żałuję). Przy tym jednak uważam, iż taki wzrost popularności dystrybucji linuksowym w wydaniu desktopowym jest jak najbardziej pożądany, a w pewnych obszarach nawet wysoce wskazany, czemu poniekąd ten wpis jest poświęcony. Dlatego też tak całkiem obojętnym nie pozostaje dla mnie pytanie, czy możliwym jest, by w ciągu najbliższych kilku lat udział linuksowych dystrybucji na komputerach osobistych był w stanie wydostać się z “getta” błędu statystycznego, czyli poziomu 2-3 procent pokrycia rynkowego?

Prawdopodobnie wyjdę w tym momencie na niepoprawnego optymistę, ale uważam, że obecnie jest na to szansa większa niż kiedykolwiek wcześniej, na co składa się kilka mniej lub bardziej ze sobą powiązanych kwestii, choć jeden aspekt wydaje się mi kluczowy i głównie od aktywności w tym obszarze zależy, czy faktycznie będziemy świadkami istotnych wzrostów. Tak się bowiem składa, że za niespełna 2 lata - o ile nic się w tej materii nie zmieni - kończy się wsparcie dla wciąż chyba najpopularniejszego wydania Okienek, czyli Windowsa o szczęśliwej cyferce 7 u swego boku. Prawdopodobnie już teraz w niejednej organizacji trwają prace koncepcyjne w zakresie planowanych działań na tę właśnie okoliczność. Natomiast o ile nie łudzę się jakoś specjalnie, że w przypadku przedsiębiorstw, które obecnie Okienkami stoją, jest w ogóle brana pod uwagę inna opcja niż produkt Microsoftu, to już w przypadku instytucji publicznych nie musi to być takie oczywiste, co mnie cieszy w dwójnasób. Przede wszystkim instytucje publiczne mają o wiele większą społeczną “siłę rażenia” niż nawet największe przedsiębiorstwo, ale przede wszystkim uważam, że akurat w obszarze publicznym otwarte oprogramowanie powinno być standardem, a nie wyjątkiem jak to niestety ma obecnie miejsce.

reklama

O przyczynach leżących u podłoża takiego przeświadczenia - potrzeby silniejsze symbiozy projektów otwarto-źródłowych z instytucjami utrzymywanymi z podatków powszechnych - wspominałem krótko przy okazji wpisu o decyzjach władz Barcelony, które postanowiły pożegnać się z produktami Microsoftu. Wydaje się, że świadomość korzyści płynących z takiego podejścia zaczyna powoli rosnąć wśród naszych ziemskich “pasterzy” również pod innymi szerokościami geograficznymi, o czym może chociażby świadczyć fakt, że niespełna dwa lata temu amerykańskie władze popełniły dokument, który określał - chyba po raz pierwszy w ichniej historii - politykę dotyczącą oprogramowania używanego w instytucjach rządowych. Znalazł się tam między innymi rozdział dotyczący 36 miesięcznego pilota, w ramach którego nałożono na jednostki podlegające władzy federalnej obowiązek publicznego udostępniania przynajmniej 20% z nowo wdrażanego kodu. Zaś jeśli chodzi o przykłady zdecydowanie świeższe, to w kwietniu niemiecki rząd - zresztą właśnie po zakończeniu kilkunastomiesięcznego pilota - podjął decyzję o całkowitej przesiadce tamtejszego centrum informacji technologicznej (ITZBund) na otwarto-źródłowe rozwiązania od Nextcloud GmbH. Z kolei władze Izraela mniej więcej w tym samy czasie zdecydowały się wreszcie na praktyczną realizację rozolucji z jesieni 2014 roku, upubliczniając kod wykorzystywany do działania rządowego portalu, zaś kolejne instytucje publiczne mają być od teraz zachęcane do podobnych kroków.

Oczywiście w kontrze do tego można przywołać zeszłoroczną decyzję nowych władz Monachium, które postanowiły zakończyć kilkunastoletni eksperyment z open-source i tym samym ponownie zbratać się z Microsoftem. Chociaż jakby się dobrze zastanowić, to nawet ten przykład można spróbować wygrać na rzecz tezy o konieczności zmian w podejściu do “własnościowego” oprogramowania w instytucjach publicznych i nie chodzi absolutnie o wypominanie faktycznych czy rzekomych powiązań nowego burmistrza z firmą założoną przez Billa Gatesa. W tym kontekście nie idzie nawet o bajońskie sumy, które pojawiają się w kontekście kosztów migracji “powrotnej”. Chciałbym w tym miejscu zwrócić uwagę na kluczowy - z perspektywy centralnej tezy niniejszego wpisu - aspekt związany w omawianymi tu wydarzeniami. Otóż lokalnym władzom udało się uzyskać potężny dyskont od MS na licencje stanowiskowe (plus deklarację przeniesienia europejskiej siedzi MS do ich miasta), co po raz kolejny pokazuje dobitnie, że monopol zazwyczaj służy wyłącznie temu, kto sprawuje nad nim kontrolę. Trudno bowiem sobie wyobrazić sytuację, w której MS byłby skłonny pójść dobrowolnie na tak dalekie ustępstwa jak w Monachium (czy jeszcze większe kilka lat wcześniej w Chinach), gdyby nie realne widmo odstawienia ich biznesu na boczne tory.

Wracając jednak do mojego wpisu sprzed około 6 miesięcy: przy okazji jego powstania odgrażałem się, że kwestii tej (potrzeby mocniejszego postawienia na oprogramowanie otwarto-źródłowe w instytucjach publicznych) poświęcę kiedyś osobny tekst, ale jak dotąd z tym tematem zawsze było mi jakoś nie po drodze. Prawdopodobnie wszystko rozbijało się o to, że taki wpis wymagałby głębszego namysłu, a nie tylko sprawnych palców i grafomańskich inklinacji, więc zapewne nieuświadomione poczucie przyzwoitości (spełniam tylko 2 z 3 punktów) nie pozwalało mi się tym zagadnieniem zająć jak dotąd. I pewnikiem tak byłoby dalej, gdyby nie ostatni długi weekend i wcale nie chodzi w tym miejscu o fakt nagłej nadpodaży wolnego czasu z nim związanego. Zwłaszcza, że impuls do ponownego pochylania się na tym zagadnieniem pojawił się dopiero w drodze powrotnej z weekendowego wyjazdu i był efektem refleksji - tak i mnie czasem to nieszczęście dopada - nad stanem naszej “państwowości”. A ściślej rzecz stawiając: poszło - jak zawsze - o pieniądze, które ktoś postanowił wyciągnąć z mojego portfela.

Autostrady Wielkopolskie - studium przypadku
Otóż od kilku lat dość regularnie (choć niezbyt często) staję przed koniecznością pokonania autem trasy z Warszawy do Poznania i z powrotem. W tym celu wybieram najszybszą dostępną możliwość, czyli miast jakimiś opłotkami wbijam się na autostradę A2, dzięki czemu w czasie około 3 godzin jestem na miejscu. Być może nie wszyscy wiedzą, ale ten około 300 kilometrowy odcinek autostrady z Warszawy do Poznania zarządzany jest przez 2 podmioty: zdecydowanie dłuższy przez Generalną Dyrekcję Dróg i Autostrad (dalej GDDKiA), zaś drugi niespełna stukilometrowy przez prywatną spółkę Autostrady Wielkopolskie S.A. (dalej AWS). Nie będę się w tym miejscu pochylał nad przyczynami, z powodu których od wielu lat możemy z Warszawy dojechać do Łodzi po A2-ce bez dodatkowych opłat i skupię się wyłącznie na “czynszowej” części trasy. Ta ostatnia zaczyna się właśnie mniej więcej na wysokości Łodzi (patrząc z perspektywy Stolicy) i z grubsza można podzielić ją na dwie równe długością części - pierwsza z nich leży we władaniu państwowym, zaś druga zarządzana jest przez AWS, choć tak po prawdzie zdaje się, że ta obsługiwana przez GDDKiA jest nieco dłuższa. Jednak różnica ta jest na tyle znikoma, że nie ma sensu z tego powodu kruszyć kopi, więc przyjmijmy, że w przypadku każdej z nich mamy do pokonania równo 100 kilometrów.

Niestety jeśli chodzi o płatności, to tutaj “parytety” są mocno zachwiane. W przypadku “publicznej” części trasy za przejazd zapłacimy 9,90 i ta kwota - o ile pamięć mnie nie zawodzi - nie zmieniła się nawet o grosz odkąd przyszło mi z niej po raz pierwszy skorzystać, czyli gdzieś w drugiej połowie 2011 roku. Tymczasem za przejazd “prywatnym” odcinkiem - zarządzanym przez AWS - zostaniemy skasowani aż dwa razy. W roku 2011 oraz przynajmniej na początku 2012 na każdej z tych dwóch bramek trzeba było zostawić bodajże po 13 złotych. Tym samym mieliśmy dwa mniej więcej równe odcinki do pokonania, ale różnie “wycenione”, czyli odpowiednio za 10 i 26 złotych. Dzisiaj po 7 latach cena za przejazd odcinkiem zarządzanym przez AWS wzrosła do 40 złotych, czyli za każdy pokonany kilometr zapłacimy ponad 4 razy więcej niż w przypadku odcinka “państwowego”. Obawiam się, że to jednak nie koniec i dysproporcja ta będzie tylko rosnąć w kolejnych latach. W związku z tym po powrocie do domu zainteresowałem się tym tematem, co by spróbować ustalić, jak dużych podwyżek można się jeszcze spodziewać, bo obecna wysokość haraczu narzuconego przez AWS niebezpiecznie zaczyna się zbliżać do mojej granicy dopuszczalnego bólu.

Obawiam się, że prawdopodobnie nie ma dla mnie - i wszystkich podróżujących tą trasą - dobrych wieści w tym zakresie, bo ponoć AWS są na mocy podpisanej umowy prawdziwym suwerenem w tej kwestii, a ta będzie obowiązywać jeszcze 20 lat (do 2037). Natomiast przy tej okazji mogłem się również dowiedzieć, że jakoś na początku tego roku ta swoista “autonomia” AWS stała się nawet przedmiotem interpelacji poselskich, a jaśnie nam panujący Minister Sprawiedliwości zarządził, by śledczy zbadali temat umowy zawartej swego czasu przez “wraże” władze ze spółką założoną między innymi przez świętej pamięci Jana Kulczyka. Z punktu widzenia niniejszego wpisu nie ma zupełnie znaczenia czy w tym konkretnym przypadku faktycznie doszło do “współpracy” Biznesu z Polityką wykraczającej poza dopuszczalne “standardy”, czyli że był to przykład sytuacji w której zabezpieczone zostały wyłącznie cele tego pierwszego oraz doraźne korzyści jakiejś grupy urzędników państwowych. Tematy “polityczne” zwłaszcza w takiej właśnie odsłonie nie interesują mnie w żaden sposób i wolałbym, żeby nie stały się okazją do wzajemnych połajanek w komentarzach pod tym wpisem. Po prostu zastanawia mnie, dlaczego takie - jak opisywane właśnie teraz - sytuacje uważamy za niedopuszczalne, a po ich upublicznieniu osoby w nie uwikłane spotykają się z dość powszechną krytyką, podczas gdy w obszarze publicznej infrastruktury IT jesteśmy - w pewnym sensie - skłonni uznać to za bezdyskusyjny standard?

Kluczowe pytania
W związku z tym zacząłem sobie dumać, dlaczego w polskiej administracji publicznej przyjmowane jest za oczywistość, że jak system operacyjny to tylko Windows, jak poczta to nic ponad tandem Outlook oraz MS Exchange, a do edycji dokumentów nadaje się wyłącznie MS Word? I tu absolutnie nie idzie o moją rzekomą niechęć do MS, zwłaszcza że w ostatnich latach mój stosunek do firmy z Redmond znacząco się zmienił. W grę nie wchodzi tym bardziej jakoś wyjątkowo krytyczna z mojej strony ocena oprogramowania tworzonego przez koderów zatrudnianych przez MS. Po prostu tak się złożyło, że przez lata ich produkty zdominowały pewne obszary zastosowań, dlatego najłatwiej jest mi właśnie je przywołać w kontekście zobrazowania pewnej “patologii”, której poświęcony jest niniejszy tekst.

Od razu jednak zaznaczę czy też wyjaśnię - poniekąd wbrew tytułowi - że zasadniczym problemem nie jest zamknięty charakter kodu tych rozwiązań, a przynajmniej nie bezpośrednio, ale sposób licencjonowania, gdzie dostawca softu w kluczowych obszarach jest totalnym suwerenem, czyli rości sobie prawo do ostatniego słowa w niemal każdej kwestii, a przy tym posiada stosunkowo niewiele zobowiązań. O ile taka asymetria w przypadku zwykłego konsumenta wydaje się naturalna - “naturalna” w tym sensie, że pojedyncza osoba i jej portfel to zazwyczaj za mało, by rzucić wielkich rynku IT na kolana - o tyle bierna postawa instytucji publicznych jest co najmniej zastanawiająca. A że można inaczej najlepiej świadczy wcześniej przywołany przykład chińskich władz, które zmusiły MS nie tylko do daleko idących zmian w oprogramowaniu tego ostatniego, ale też otrzymały zgodę na inspekcje kodu Windowsa a nawet jego współtworzenie.

Dla pełnej jasności w tym miejscu pozwolę sobie na jeszcze jeden komentarz, bo nie chciałbym, żeby ten fragment był źle zrozumiany. Otóż model biznesowy panujący na rynku oprogramowania przez ostatnie kilkadziesiąt lat z zasady mi nie wadzi, choć pod wieloma względami przydałaby się regulacja niektórych z jego aspektów. Ba, wyznam, że w pewnych obszarach nadal jest mi trudno wyobrazić sobie tworzenie i rozwój wartościowego oprogramowania w modelu innym niż obecnie dominujący, czyli takim gdzie autor aplikacji umożliwia korzystanie z własnego produktu wszystkim chętnym i gotowym uiścić określoną opłatę, bez jednoczesnego zobowiązania do przekazania do niego części praw. A przy tym chociaż święty w tym zakresie nie jestem, to na pewno w przypadku jakiegokolwiek naruszenia tego “prawa własności intelektualnej” nie przejdzie mi przez usta, że oto mieliśmy do czynienia z “nieautoryzowanym kopiowaniem”. Już prędzej usłyszycie ode mnie wówczas o pospolitej kradzieży. Jednakże to właśnie problem praw do kodu jest dla mnie głównym przyczynkiem do krytyki obecnego stanu rzeczy, zaś przywołanie wspomnianej sytuacji dotyczącej kawałka autostrady A2 miał nie tylko służyć jako poręczne narzędzie polemiczne, ponieważ za jego sprawę trochę zmienił się - a może tylko bardziej się utwierdził - mój sposób postrzegania kwestii wykorzystywania własnościowego kodu w instytucjach publicznych.

Jeśli ktoś czytał mój wpis o Barcelonie, ten być może pamięta wyrażoną wówczas przeze mnie ocenę filmowej prezentacji, jaką umieścili na własnej stronie inicjatorzy akcji “Public Money, Public Code”.

Otóż napisałem w tamtym tekście, że inaczej rozłożyłbym akcenty w przedstawionej argumentacji i w znacznie mniejszym stopniu koncentrowałbym się na “demonizowaniu” zagrożeń związanych z naturą zamkniętego kodu. W zasadzie dzisiaj nadal utrzymuję wyrażone wówczas zdanie, jednakże po ponownym przemyśleniu tego tematu w kontekście moich ostatnich doświadczeń “turystycznych”, zdecydowanie poważniej niż wówczas traktuję filmową ilustracje konsekwencji, które wiążą się z faktem, iż instytucje finansowane z naszych podatków przekazują ogromne sumy za … no właśnie: za co? Niestety nie zadowala mnie odpowiedź, iż ten zakres reguluje umowa między stronami, bo przecież w przypadku AWS doszło do podpisania stosownego porozumienia, a mimo to obszar i charakter współpracy w tym ostatnim przypadku budzi szczególny niepokój lub przynajmniej silne kontrowersje. Tymczasem w obszarze IT podobne działania nie wywołują właściwie żadnych emocji. Powiem więcej, po zakończeniu "rządów" AWS nad około 250 km autostrady A2 zostanie chociaż ten kawałek drogi, który rzeczona spółka z Wielkopolski swego czasu - na mocy porozumienia z lat 90-tych ubiegłego stulecia - wybudowała (głównie z własnych środków). Co zostałoby w przypadku decyzji mojego ulubionego chłopca do bicia, czyli Microsoftu, gdyby ten ostatni postanowiłbym któregoś dnia porzucić rozwój Windowsa lub co gorsza zakończyłby swoją działalność nie upubliczniając jednocześnie kodu? Oczywiście można nad tym się zadumać wyłącznie w ramach pewnego eksperymentu myślowego, bo nic nie wskazuje, żeby miało się to w przewidywalnej przyszłości wydarzyć. Ale już całkiem realnym jest scenariusz, kiedy to - tak jak w swego czasu w Monachium czy obecnie w Barcelonie - zapadłaby decyzja o zmianie kluczowego dostawcy systemu operacyjnego. Cóż innego wówczas pozostaje niż wylewanie asfaltu na nowo?

Dlaczego kod powinien być jednak publiczny?
Na szczęście nawet wówczas nie jest tak źle i to chyba dobry moment, by dwa słowa poświęcić jeszcze temu dlaczego uważam, że w przypadku instytucji publicznych istotna jest nie tylko kwestia praw własności do kodu, ale równie kluczowe jest, by tam, gdzie to tylko możliwe, ten kod był upubliczniany. Będzie - mam nadzieję - naprawdę krótko, ponieważ to kolejny mój tekst, który rozrósł się znowu ponad zakładaną miarę, a jeszcze został jeden blok do napisania. Skupię się na dwóch aspektach, które lubimy najbardziej chyba wszyscy, czyli będzie o pieniążkach.

Zacznijmy od wyłuszczenia najbardziej podstawowej różnicy między sektorem publicznym a prywatnym, jeśli chodzi o gospodarkę. Otóż spółki prawa handlowego mają zarabiać, co na niwie IT (w przypadku średnich i dużych przedsiębiorstw) sprowadza się między innymi do tego, że inwestycja w autorski (choć nie tylko) soft jest taktowana jako inwestycja właśnie, która między innymi ma podnosić wartość Spółki i nawet jeśli jej władze nie zamierzają czerpać bezpośrednio korzyści z monetyzacji wdrażanego rozwiązania, to niejednokrotnie przekonałem się, że w świecie rządzonym przez księgowych nierzadko od wielkości trzosu, który jest konieczny do osiągnięcia zamierzonego celu, ważniejsza jest kolumna, w która ten wydatek można zapisać. W każdym razie nakłady na soft są koniecznymi kosztami związanymi z bieżącą działalnością operacyjną i zazwyczaj nikt specjalnie nie przejmuje się konsekwencjami polityki w tym zakresie dłuższymi niż kilka lat. Ma być tanio, szybko i dobrze (wybierz 2 z 3).

Jednakże nawet w przypadku bardzo buchalteryjnie zorientowanych Spółek, pewien stopień racjonalności operacyjnej musi występować, co w efekcie może prowadzić do ścisłej kooperacji z bezpośrednim konkurentem (nie ma tu na myśli nagannych i nielegalnych praktyk związanych ze zmową rynkową). W jednym z moich wpisów wspominałem o liście, który Bill Gates wystosował do ówczesnych władz Apple, gdzie już ponad 30 lat temu podnosił kwestię powszechnych korzyści płynących z takiej interoperacyjności dla wszystkich aktorów w nią zaangażowanych (oczywiście zostawiam na boku kwestię tego czy robił to szczerze) . Dlatego też od co najmniej kilku a nawet kilkunastu lat jesteśmy świadkami spektakularnych projektów (Linux czy Android jest tego najlepszą egzemplifikacją), gdzie różne podmioty grają do jednej bramki (skoro Mundial za pasem, to jedną czerstwą metaforę- mam nadzieję - że mi wybaczycie), ponieważ w szerszej czy dłuższej perspektywie zwyczajnie się to im opłaca.

Spójrzmy bowiem na prace nad jądrem Linux, gdzie jednym z najbardziej hojnych sponsorów jest MS. Otóż w 2011 roku koszty komercyjnego odtworzenie praca nad jądrem Linux (w wersji 2.6.x) zostały oszacowane na około 3 miliardy dolarów i to przy użyciu najprostszej metodologii, która po prostu przekłada liczbę linijek kodu na odpowiednie wartości w amerykańskiej walucie. Jest to ogromna kwota, nie może zatem dziwić, że wiele firm produkujących sprzęt użytkowy stawia na jądro Linux jako podstawę własnych rozwiązań miast budować wszystko od początku. Ta uwaga w takim samym stopniu dotyczy producentów prostych routerów domowych jak i producentów najdroższych aut. Po prostu taka kooperacja się opłaca również podmiotom nastawionym na zarabianie pieniędzy, nawet kosztem potencjalnego zwiększenia konkurencji. A przecież instytucje publiczne działają w oparciu o zupełnie inne cele, więc kwestia budowania potencjalnych przewag nad "rywalami" tutaj nie występuje. Jednakże co ważniejsze: obecnie żadna - nawet najpotężniejsza gospodarka - nie jest w stanie podjąć się wysiłku zbudowanie wszystkiego od podstaw, na szczęście w odwodzie zostają powszechnie dostępne rozwiązania otwarto-źródłowe, które jednak w wielu wypadkach pociągają za sobą pewne zobowiązania w zakresie wykorzystania ich kodu, czyli konieczność dzielenia się własną pracą. Dlatego też obecnie Rosja czy kilkanaście lat wcześniej (bez powodzenia) Chiny, chcąc uniezależnić się od oprogramowania obcej proweniencji, postawiły w pierwszej kolejności na Linuksa.

I tym sposobem przechodzimy do aspektu, który mnie jako przeciętnego "użyszkodnika" szczególnie interesuje. Dzięki obowiązkowi upubliczniania kodu i zaangażowaniu się licznych podmiotów w jego rozwój (czemu niewątpliwie sprzyjałaby inna polityka instytucji publicznych w tym zakresie), mógłbym się cieszyć dostępem do jeszcze większej liczby, jeszcze lepszego (i przy tym zazwyczaj darmowego) oprogramowania. No i przede wszystkim przestać się obawiać aplikacji, które stają się w pewnym sensie standardem na pewnym obszarze, a przy tym są kompatybilne wyłącznie z samym sobą. W przeciwnym razie będziemy nadal świadkami sytuacji, gdy jednym z kluczowych "ficzerów" pewnego oprogramowania biurowego jest fakt, że jego twórcom udało się osiągnąć pełną czy prawie pełną kompatybilność z rozwiązaniem Microsoftu.

Dlaczego w Polsce się nie uda?
Nie będę ukrywał, że ta część tekstu jest efektem zobowiązania nierozważnie złożonego w tytule tego wpisu. Niestety tak się tym razem zdarzyło, że nie miałem pomysłu na inną równie clickbaitową nazwę i teraz muszę jakoś z tego wybrnąć. Z drugiej strony nie mam najmniejszych wątpliwości, iż o powodach, dla których to nie może się udać w naszym pięknym nadwiślańskim kraju, dowiem się dobitnie z komentarzy, które prawdopodobnie pojawią się pod tym wpisem. Oczywiści kilka z takich obiekcji sądzę, że mogę już teraz z dużym prawdopodobieństwem antycypować i nie chodzi mi bynajmniej o niezbyt - moim zdaniem - zadowalającą kondycję polskiego "sektora" open-source, bo tam gdzie jest popyt zazwyczaj dość szybko pojawia się również podaż. Przypuszczam bowiem, iż w pierwszej kolejności spotkam się z zastrzeżeniami o charakterze uniwersalnym, czyli zapewne będę mógł przeczytać, iż jeśli coś jest darmowe, to w praktyce niewiele jest warte. Spodziewam się również zobaczyć opinie, iż wiele oprogramowania własnościowego nie ma zbliżonych jakościowo odpowiedników wśród otwarto-źródłowych rozwiązań. No i last but not least przywołane zostaną legendarne panie Krysie i Basie, których świat zawali się w przypadku konieczności korzystania z narzędzi innych niż z logo MS czy inszego SAP-a.

Jeśli chodzi o dwa pierwsze zastrzeżenie, to nie zamierzam się nad nimi specjalnie pochylać, więc napiszę jedynie, że przywołana wyżej zdroworozsądkowa mądrość o cenie idącej w parze z jakością - jak zawsze w takich przypadkach - czasem się sprawdza, a w innym wypadku już niekoniecznie. Ważniejsze jest jednak coś innego, a mianowicie ukryta przesłanka, którą przyjmuje się domyślnie w tym kontekscie, choć w praktyce jest ona z gruntu fałszywa, a przynajmniej częstokroć taką bywa. Otóż nie jest prawdą, że każdy projekt otwarto-źródłowy jest ze swojej natury przedsięwzięciem hobbystycznym (osoby w nie zaangażowane wcale nie muszą pracować pro bono) ani tym bardziej z definicji nie pozwalającym na godziwy zarobek. Najlepszym przykładem falsyfikującym to ostatnie przekonanie jest działalność Google’a, którego najważniejsze produktu są wydawane na otwartych licencjach, a te z zastrzeżonym kodem w większości przypadków są zwolnione z bezpośredniej odpłatności. Oczywiście ktoś powie, że prawdziwe koszta dla użytkownika końcowego gdzie indziej są ukryte - co samo w sobie może być przedmiotem dyskusji - ale nawet to jasno pokazuje, że upublicznienie kodu w żaden sposób nie blokuje możliwości zarabiania na tego rodzaju sofcie. Po prostu rynek IT stale ewoluuje i w erze myślenia o oprogramowaniu jako usłudze, a nie gotowym produkcie, zmienia się również model biznesowy.

Co do braku odpowiedników, to ponoć z faktami się nie dyskutuje, więc i ja nie podejmę się tego daremnego trudu, ponieważ prawdą jest, że dla pewnej kategorii oprogramowania trudno znaleźć chociaż w części równoważny otwarto-źródłowy ekwiwalent. Natomiast innym faktem jest również, że większość urzędników państwowych czy samorządowych wykonuje dość proste czynności związane z obsługą komputera i naprawdę do sporządzenia służbowej notatki czy odpowiedzi na wniosek petenta w zupełności wystarczy mało wyrafinowany edytor tekstowy, zaś do prostego zestawienia danych liczbowych nada się równie prosty arkusz kalkulacyjny. Tak samo jak do obsługi korespondencji elektronicznej nie musi być z konieczności zaprzęgnięty tandem Outlook oraz MS Exchange.

W ramach anegdoty przytoczę przykład znany mi z kręgów mojej rodziny, gdzie w pierwszych latach XXI wieku osoba spokrewniona ze mną trafiła do instytucji zajmującej się przetwarzaniem danych statystycznych. Jakież było jej zdziwienie i przerażenie, gdy przekonała się ona, iż wszyscy zatrudnieni w jej zespole ludzie (nierzadko kilka lat młodsi) wykorzystywali Excela jako poręczne narzędzie do rysowania tabelek, ponieważ ich praca sprowadzała się do wstawiania cyferek w poszczególne kolumny, natomiast wszelkie - niezbyt złożone - działania algebraiczne na tych danych były również w taki sam sposób do arkusza wrzucane po wcześniejszym przeliczeniu na kalkulatorze. Nie chodzi mi w tym miejscu o dowodzenia bezmyślności takiej czy innej grupy zawodowej, bo podobne "w duchu" sytuacje dane mi było obserwować w całkiem sporych korporacjach. Po prostu wyraźnie na tym przykładzie widać sytuację, w której bardzo potężne narzędzie, jakim jest MS Excel, zostało zaprzęgnięte do realizacji czynności, dla których wystarczał prosty kalkulator i kawałek kartki, a to dzisiaj bywa raczej standardem niż wyjątkiem.

Oczywiście wszędzie tam gdzie tej alternatywy rzeczywiście nie ma nikt przy zdrowych zmysłach z powodów ideologicznych raczej nie będzie wciskał otwarto-źródłowego “odpowiednika”. Wystarczy przecież przypomnieć, iż w Monachium kilka lat trwał pilot wdrożenia, a kolejne działy czy obszary migrowane były stopniowo i nawet po kilkunastu latach liczba pecetów uzbrojonych w Windowa w tamtejszych urzędach była nadal zauważalna (ponoć 20% sprzętu nadal chodzi pod Okienkami). Bardziej rzecz idzie o wdrożenie takich mechanizmów czy regulacji, które promowałyby rozwiązania otwarto-źródłowe lub chociaż takie, gdzie kod stałby się własnością instytucji publicznych, ale nie za wszelką ceną czy każdym kosztem.

Jedyny argument, przed którego wagą muszę ulec dotyczy przemożnej mocy przyzwyczajeń. Niestety liczebność urzędników państwowych czy samorządowych jest na tyle znacząca, że Ustawodawca zawsze będzie zmuszony liczyć się z ich głosem. Oczywiście zmiana rodzaju oprogramowania, na którym przyjdzie pracować przysłowiowej Pani Krysi czy Panu Jurkowi ma zupełnie inny ciężar gatunkowy niż chociażby likwidacja trzynastek czy wydłużenie godziny pracy urzędów. Jednakże wbrew opinii zapewne niejednego czytelnika, wcale nie uważam funkcjonowania administracji państwowej za zło koniecznie, a samych urzędników w całej swej masie za darmozjadów, choć i takich przykładów nie brakuje (sam znam kilka).

Tym niemniej mam wrażenie, że próba zmiany utartych przyzwyczajeń może się skończyć jak historia pewnego entuzjasty wolnego oprogramowania, który w jednej ze szkół postanowił na stojących tam komputerach posadowić Linuksa. Smutna to historia i po cichu liczę, że jednak nieprawdziwa. Niestety przyzwyczajenia czy tam nawyki - jak mawiają - są drugą naturą ludzką, a podsypane "słowiańską" nutą i historią mogą prowadzić do takich właśnie sytuacji. Dlatego bez odważnego ustawodawstwa ciężko będzie o to, byśmy notorycznie nie byli skazani na budowanie małych uliczek czy autostrad rękoma największych świata IT z wszelkiego tego konsekwencjami.

...

Trzeba dostarczyc prosty sprawny Linuks. Ludzie nie potrzebuja go do lotów kosmicznych przeciez!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Pią 19:26, 22 Cze 2018    Temat postu:

deepin Polska - polska społeczność dystrybucji deepin OS

deepin to kompletny system operacyjny, tworzony z pasją i dopracowany w najmniejszych szczegółach. Dostosowuje się do Twojego stylu pracy z komputerem dzięki czemu przejście z dotychczasowego systemu operacyjnego nie stanowi najmniejszego problemu...

...

Polski wklad w wolne oprogramowanie.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 11:06, 24 Cze 2018    Temat postu:

Ubuntu udostępnia pierwsze statystyki: zazwyczaj instalacja systemu trwa tylko 18 minut!
Grzegorz Cichocki 23 czerwca 2018

W Ubuntu 18.04 Bionic Canonical dodało nową opcjonalną funkcję, która odpowiada za zbieranie danych o użytkowniku i systemie. Dzięki temu firma może lepiej zrozumieć jacy użytkownicy instalują Ubuntu oraz jak z niego korzystają. Gigant z Wysp postanowił podzielić się z nami niektórymi statystykami.

Instalacja Ubuntu zazwyczaj trwa tylko 18 minut

Tak, Canonical chwali się, że średni czas instalacji Ubuntu trwa tylko 18 minut. Jest to naprawdę świetny wynik, tym bardziej, że instalacja Windowsa potrafi trwać o wiele dłużej. To jednak nie wszystko. Niektórzy użytkownicy potrafią zejść nawet poniżej 8 minut. Muszę dodać, że Canonical pracuje nad tym, aby system instalował się jeszcze szybciej. Mnie zazwyczaj instalacja zajmuje 12-15 minut.


Ponad połowa użytkowników wybiera Ubuntu jako swój główny system operacyjny na danym urządzeniu. Są jednak również tacy, którzy robią Dualboot, czyli stawiają dwa OS-y na jednym komputerze. Sam tak miałem przez jakiś czas, aż w końcu Linux wyparł Windowsa. Co ciekawe, niewiele osób instaluje system z opcją szyfrowania danych, za to ponad 90% użytkowników podczas instalacji pobiera aktualizacje systemowe.


Wśród użytkowników Ubuntu dominują urządzenia średniej klasy

Gdy zobaczyłem najczęstszą specyfikację komputera, z którego korzystają użytkownicy Ubuntu, miałem wrażenie, że czytam o swoim urządzeniu. A więc do rzeczy – najczęściej ludzie instalują Ubuntu na sprzętach z 4 lub 8 GB RAM-u, natomiast ich monitor zazwyczaj ma rozdzielczość Full HD.


Co ciekawe, nadal popularne są komputery z tylko jednym gigabajtem RAM-u. Na wykresie również znalazło się urządzenie wyposażone w aż 128 GB pamięci operacyjnej. Czyżby to był jeden z superkomputerów? Wiele osób wciąż korzysta z monitorów wyposażonych w rozdzielczość 1366 x 768 pikseli (ostatni raz widziałem takie w szkole). Wyróżniona została również wartość 800 x 600, ale taka rozdzielczość jest najczęściej wykorzystywana na maszynach wirtualnych, więc może to lekko zaburzać statystyki.


Ubuntu najpopularniejsze jest w Stanach Zjednoczonych

Co ciekawe, Ubuntu największą popularność zyskało w Stanach Zjednoczonych. Przypominam, że stamtąd pochodzą takie systemy, jak Windows oraz MacOS. USA to jednak ogromny rynek i jest tam dużo miejsca na przeróżne OS-y. Zaraz za USA znajdziemy takie państwa jak Brazylia, Chiny, Indie oraz Rosja.


W Europie Ubuntu najpopularniejsze jest w Niemczech, Francji, Włoszech, Hiszpanii i oczywiście w Wielkiej Brytanii. Nieco mniejszym rozgłosem cieszy się w Polsce i na Ukrainie.

Reasumując…

Z funkcji gromadzenia statystyk korzysta 67% użytkowników Ubuntu 18.04 Bionic, dzięki czemu możemy uznać powyższe dane za miarodajne. Mnie najbardziej zdziwił średni czas instalacji systemu, który, tak jak wcześniej informowałem, wynosi zaledwie 18 minut. Zastanawiam się również, kto ma ochotę korzystać z Ubuntu mając jedynie 1 GB pamięci RAM. W takim wypadku wolałbym skorzystać z innej dystrybucji Linuksa, na przykład Peppermint OS.

Jak oceniacie powyższe statystyki dotyczące Ubuntu? Korzystacie z Ubuntu lub innego Linuksa? Dajcie znać w komentarzach!

Komentarze

stpawel 1 min. temu via Android 0
To będzie bez wątpienia rok linuxa.

...

Rozwoj linuxa cieszy!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 90936
Przeczytał: 189 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 19:12, 27 Cze 2018    Temat postu:

Oto zwyczaje i komputery użytkowników Ubuntu. Canonical publikuje raport z telemetrii
Strona główna Aktualności24.06.2018 14:50

b.munro
Maciej Olanicki
@b.munro
W lutym Canonical ogłosił decyzję, która z początku wzburzyła użytkowników Ubuntu – dystrybucja od wersji 18.04 miała zbierać dane o użytkowniku, jego zwyczajach i konfiguracji sprzętowej jego komputera. Po kwietniowej premierze nastroje były już lepsze – okazało się bowiem, że telemetria w wydaniu Canonicala powinna być… kanoniczna.

Tak dane o swoich użytkownikach zbiera Ubuntu. Czy można prościej i bardziej przejrzyście?
Ale na zbieraniu danych się nie kończy – Canonical chce się nimi także dzielić, co może stanowić bezcenną krynicę wiedzy dla deweloperów. Jak zapowiedział w maju Will Cooke, w planach jest nawet utworzenie całego serwisu, w którym zanonimizowane dane z telemetrii będą ogólnodostępne. Zanim to się jednak ziści, otrzymaliśmy coś na zachętę – na oficjalnym blogu Ubuntu ten sam Will Cook opublikował raport sporządzony na podstawie danych zbieranych przez Ubuntu.

Pierwszą informacją, jaką podzielił się Cooke jest odsetek użytkowników, którzy w ogóle zgodzili się na zbieranie danych – to jest wszak nieobligatoryjne i zgodę bądź jej brak można wyrazić już podczas instalacji. Na telemetrię w Ubuntu godzi się 67% użytkowników desktopowej wersji dystrybucji. Nie ma już tutaj kolejnych rozróżnień, bo w przeciwieństwie do Windowsa telemetria w Ubuntu jest włączona lub wyłączona, bez ustawień pośrednich czy przełączników

Najczęściej instalacja Ubuntu trwa 18 minut, choć zdarzyły się maszyny, na których system postawiono w 8 minut.
Jeśli użytkownik wyraża zgodę na zbieranie danych, to telemetria działa już podczas instalacji systemu operacyjnego. Dowiadujemy się dzięki temu, że średnio instalacja Ubuntu na dysku twardym trwa 18 minut. Nieźle, a przecież ma być jeszcze lepiej – Cooke zapowiedział w maju, że trwają prace nad nowym instalatorem wykorzystującym dorobek curtina oraz frameworka Electron. W rezultacie instalacja ma przebiegać jeszcze sprawniej, choć już dziś zebrano dane o maszynach, na których Ubuntu postawiono w mniej niż 8 minut.

Pozostając jeszcze przy samej instalacji Ubuntu 18.04, warto przytoczyć dane, według których stosunek aktualizacji z poprzednich wersji do nowych instalacji wynosi 1 do 4, choć faktyczny stan rzeczy zniekształca tu fakt, że Bionic Beaver był wydaniem z początku dość zabugowanym, przez co komunikaty o możliwej aktualizacji systemu były wyświetlane na maszynach ze starszą wersją dopiero po premierze 18.04.1. Sukcesem okazał się natomiast tryb minimalnej instalacji – skorzystało z niego ponad 15% użytkowników.

Opcje instalacji bez zaskoczeń – ponad 90% użytkowników decyduje się na pobieranie aktualizacji podczas instalacji, ponad połowa wybiera instalację oprogramowania własnościowego, zaś nieco ponad 28% wybiera autologowanie.
Canonical zbiera również informacje na temat partycjonowania dysku – 53% użytkowników decyduje się tutaj na pełne wymazanie dysku i świeżą instalację Ubuntu, ręcznie dysk partycjonuje niecałe 22%. Cooke zapowiedział jednak, że zróżnicowanie jest tu na tyle duże, że w instalatorze Ubuntu na pewno pozostanie możliwość ręcznego partycjonowania, a nawet wprowadzone zostaną zmiany, które uproszczą i przyśpieszą ten proces.

Dalej Cooke przechodzi do danych dotyczących konfiguracji systemu i specyfikacji sprzętowej maszyn, na których zainstalowano Ubuntu. Są to jednak niestety dane bardzo ogólnikowe – o procesorach wiemy na przykład jedynie tyle, że w zdecydowanej większości maszyn występuje jeden. Jeśli chodzi o RAM, to najczęściej do dyspozycji jest go 4 lub 8 GB, rzadziej 2. Zdarzają się wciąż instalacje na maszynach z gigabajtem RAM-u, ale odnotowano także kombajn z… 128 GB! Mało szczegółów otrzymaliśmy także o grafice – niewielu użytkowników Ubuntu korzysta z wielu kart graficznych, podobnie rzadko zdarza się wykorzystywanie wielu monitorów. Czyżbyśmy instalowali Ubuntu przede wszystkim na laptopach?

1920×1080, potem 1366×768 i... 800×600. 4K do użytkowników Ubuntu jeszcze nie dotarło, bo i po co.
Na to wygląda, wskazują na to najpopularniejsze rozdzielczości ekranu. Króluje FullHD, tuż przed 1366×768 pikseli – rozdziałką nieśmiertelną i najpopularniejszą właśnie na niedrogich laptopach z ekranem o proporcjach 16:9. Co ciekawe, trzecią najpopularniejszą rozdzielczością wcale nie jest 4K czy popularne na starych monitorach CRT 1024×768, lecz… 800×600. Czyżby to z winy wszystkich maszyn, na których Ubuntu jest, lecz go nie widać, jak na przykład biletomatów?

Na koniec Cooke zostawił popularność ze względu na położenie geograficzne. Trzeba tu jednak zaznaczyć, że jest ono ustalane nie na podstawie np. IP, lecz ustawień regionu w instalatorze. To zapewne dlatego dość nieoczekiwanie Ubuntu najwięcej użytkowników ma w kraju, gdzie synonimem laptopa często jest MacBook – w Stanach Zjednoczonych. Lokalizacja ustawiona USA jest domyślną podczas instalacji. Dalej plasuje się Brazylia, Indie, Chiny i Rosja.

...

Majac dane powinni je chronic. Obawiam sie atakow i wrogiego przejecia.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum Religia,Polityka,Gospodarka Strona Główna -> Wiedza i Nauka Wszystkie czasy w strefie EET (Europa)
Idź do strony 1, 2, 3  Następny
Strona 1 z 3

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach


fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
cbx v1.2 // Theme created by Sopel & Programy