Forum Religia,Polityka,Gospodarka Strona Główna
Linux
Idź do strony 1, 2, 3, 4, 5, 6, 7  Następny
 
Napisz nowy temat   Odpowiedz do tematu    Forum Religia,Polityka,Gospodarka Strona Główna -> Wiedza i Nauka
Zobacz poprzedni temat :: Zobacz następny temat  
Autor Wiadomość
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 10:06, 08 Maj 2018    Temat postu:

Ubuntu jak się robi etyczną telemetrię
Strona główna Aktualności07.05.2018 15:25
Inżynierowie oglądają płytę główną z depositphotos
eimi
Adam Golański
@eimi
Kto miał zainstalować sobie najnowsze Ubuntu 18.04 LTS, ten już pewnie to zrobił. A teraz wysyła całkiem sporo informacji do firmy Canonical. Niespodzianka? Na pewno nie. Kto śledził ostatnie prace deweloperów Canonicala ten powinien pamiętać, że system znany pod nazwą kodową Bionic Beaver domyślnie włącza telemetrię dla nowych instalacji.

Producent Ubuntu zapowiedział to posunięcie już w lutym. Skonsternowani użytkownicy, pamiętający jeszcze aferę ze przesyłaniem lokalnych wyszukiwań w środowisku Unity na serwer Canonicala (i to bez ich anonimizacji) mogli sądzić, że to kolejne podejście do handlu ich danymi – Amazon na pewno by się połakomił. A jednak nic z tego. Tym razem nowemu Ubuntu zarzucić nic nie można. Wręcz przeciwnie, firma Marka Shuttlewortha mogłaby uczyć ludzi z Microsoftu, jak należy wprowadzać etyczną telemetrię.

REKLAMA

To prawda, podczas samej instalacji nie ma nigdzie możliwości zrezygnowania z telemetrii. Ubuntu Report, narzędzie gromadzące informacje o systemie, startuje zaraz po uruchomieniu. Jednocześnie jednak uruchamiane jest graficzne narzędzie wstępnej konfiguracji systemu Witaj w Ubuntu. Pyta ono w pewnym momencie, czy chcemy pomóc udoskonalić Ubuntu.

Czy pomożesz udoskonalić Ubuntu?
Czy pomożesz udoskonalić Ubuntu?
Pomoc ta polega na wysyłaniu Canonicalowi informacji o sprzęcie, zainstalowanych pakietach i przybliżonej lokalizacji (ustawieniach językowych i czasowych). Domyślnie zaznaczony jest przycisk radio „Tak, wyślij informacje o systemie do Canonical”. By zrezygnować z telemetrii należy przełączyć na „Nie wysyłaj informacji o systemie”.

Możemy też kliknąć przycisk „Pokaż pierwszy raport” i zobaczyć, co wysłane zostanie. Jak widać, to prosty plik JSON, zawierający zrozumiale opisane informacje o sprzęcie. Obok znajduje się też przycisk „Informacja prawna”, który otwiera Firefoksa ze stroną opisującą politykę prywatności Canonicala.

Mały prosty JSON z raportem dla Canonicala
Mały prosty JSON z raportem dla Canonicala
Zaprezentowanie w ten sposób informacji o telemetrii wydaje się lepszym rozwiązaniem, niż pytanie o to w instalatorze Ubiquity, w którym użytkownicy klikają tylko Dalej, dalej, by jak najszybciej zakończyć instalację i jej nudny pokaz slajdów. Tutaj już po uruchomieniu znacznie trudniej ominąć wzmiankę o telemetrii, tym bardziej że program powitalny zaczyna od ciekawych komunikatów: przedstawia ważne nowości w interfejsie Ubuntu 18.04 i pozwala włączyć aktualizacje kernela bez restartów.

wersja Ubuntu
partycje dysku
producent sprzętu
informacje o wyświetlaczu
model komputera
stan autologowania
wersja BIOS
stan automatycznego łatania
procesor główny
środowisko graficzne
procesor graficzny
serwer grafiki
ilość RAM
strefa czasowa
Informacje zbierane za pomocą telemetrii Ubuntu Report
Co Canonical zrobi z tymi wszystkimi zbieranymi danymi? Służyć mają przede wszystkim do poprawienia jakości systemu. Wiedząc na jakim sprzęcie i z jakim oprogramowaniem pracują użytkownicy, deweloperzy i testerzy firmy będą mogli skupić się na tym co najpilniejsze i najpopularniejsze. Canonical nie jest przecież Microsoftem, nie jest w stanie jednocześnie i w równym stopniu zająć się wszystkim.

Telemetria w Windowsie to zupełnie inna bajka
Telemetria w Windowsie to zupełnie inna bajka
A jak to robi Microsoft? Użytkownicy Windowsa 10 mogą skorzystać już z oficjalnej Przeglądarki danych diagnostycznych, którą doinstalować trzeba z Microsoft Store, a następnie włączyć w Ustawieniach, w panelu Prywatność > Diagnostyka i opinie. Tu też jak widać wysyłane są pliki JSON… ale co dokładnie jest w nich zawarte, tego chyba nikt poza specjalistami z Redmond nie wie. Co więcej, widać wyraźnie, że nie można całkiem wyłączyć tej tajemniczej telemetrii: w najlepszym razie możemy ograniczyć jej intensywność, przełączając opcję diagnostyki z Pełnej na Podstawową.

..

Poza tym warto wesprzec Ubuntu. Facebook nas sledzi Google Microsft itd... a ja bede zalowal danych tym co robia darmowy otwarty system?


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 7:55, 12 Maj 2018    Temat postu:

Siostro, zastrzyk, czyli Linux w urządzeniach Google i Microsoftu
autor Salvadhor • 10 maja, 2018 • 4 komentarze

00


W sumie. Czy kogoś to dziwi? Osoby będące w temacie zapewne śledzą od jakiegoś czasu doniesienia o walecznym trudzie jaki zadają sobie wiodące korporacje, aby zaoferować ludziom Linuksa jako przykrywkę dla swoich produktów. Bo jak inaczej określić Chromebooka dla którego Google przygotowało możliwość uruchamiania aplikacji Linuksowych (na Linuksie, wykombinuje sobie to), oraz Microsoft który pozwoli na skorzystanie z Ubuntu na… Windowsie 10 odpalonym na tajemniczym ACPC.


Linux w Linuksie na Chromebooku
Jaki Chromebook jest, każdy widzi. Przynajmniej konsument mieszkający w USA, gdyż na Starym Kontynencie ten sprzęt to egzotyka. Niewiele osób jednak wie, że pod spodem tkwi Linux – tak bardzo znienawidzony przez masowych konsumentów. To jednak nie stoi na przeszkodzie, aby Chromebooki odnosiły sukces sprzedaży w USA. Co więcej, sukces jest tak gwałtowny i odczuwalny, że większość serwisów zliczających ruch internetowy stworzyło oddzielną kategorię dla tego Linuksa, który udaje co innego. Ale teraz sprawy się komplikują, bowiem Google oficjalnie ogłosiło, że kolejne wersje systemu dla tych urządzeń będą w stanie uruchomić… Programy linuksowe. Dzięki temu sprzęt ma pozbyć się etykiety zabawki a my otrzymamy nowe możliwości. Co prawda aplikacje będą uruchamiane w wirtualnej maszynie. Ale takiej stworzonej specjalnie na potrzeby Chromebooka, kompletnie zintegrowanej z ChromeOS. Wspomniane programy mają uruchamiać się w oka mgnieniu, a instalować je będziemy mogli za pomocą komendy… Fanfary… apt-get.
Posiadacze Pixelbooków mogą już zacierać dłonie, a użytkownicy starszych konstrukcji doczekają się zapewne aktualizacji w niedługim czasie. Tak jak i doczekali się obsługi aplikacji z Androida, itp.

No dobrze, ale o ile w przypadku Google od czasu do czasu przenikają jakieś doniesienia, że ten Linux plącze się na desktopie ich deweloperów, Androidzie i ChromeOS, o tyle zapał jakim zapałał do Linuksa Microsoft może nieco zastanawiać. No dobrze, Azure gdzie połowa maszyn wirtualnych to Linux. No dobrze, integracja w Windows 10 Basha i innych. Kto o tym nie słyszał. Ale Linux na sprzęcie dedykowanym Windowsowi? Always Connected PC to właśnie takie coś. Coś napędzane procesorami Qualcomm Snapdragon 835 i działające jedynie pod Windowsem 10 skrojonym na potrzeby architektury ARM. Dacie wiarę? Platforma na której do tej pory nie udało się uruchomić Linuksa – przynajmniej na urządzeniach dedykowanych ACPC – Asus NovaGo, HP Envy x2, Lenovo Miix 630. A jest o czym marzyć. Urządzenia wytrzymujące do 20 godzin na baterii działają na wyobraźnie. Szczególnie mocniej, gdy poczyta się zapowiedzi Microsoftu, że stworzą rozwiązanie pozwalające na uruchomienie Ubuntu (tak, Ubuntu) na Windowsie napędzającym taką maszynę.

Na konwencie Microsoft Build 2018 zaprezentowane zostało właśnie rzeczone Ubuntu uruchomione na ARM PC. Niestety jako aplikacja ze sklepu Microsoft Store. Zatem na nic nasze sny o natywnie wolnym systemie na ACPC. Co więcej, to rozwiązanie daje nam dostęp jedynie do terminalu. Jednak jakich można epitetów użyć, by określić ten sukces, nawet jeśli odbywa się to pod przykrywką świadomych działań Microsoftu?

Powyższe doniesienia prawdziwych twardzieli raczej nie zauroczą. Każdy, kto potrafi samodzielnie zainstalować lub używać zainstalowanego Linuksa nie zatęskni do protez oferowanych przez gigantów. Najbliżej ideału jest jednak Google. Każdy program, czy to graficzny czy tekstowy na Chromebooku. To już coś.

...

Nowi linuxowcy! Absurd. Jak cos odnosi sukces to corpo chcą od razu sie pod to podczepic. Dla kasy oczywiscie.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 17:06, 12 Maj 2018    Temat postu:

Postrach cenzorów już w stabilnej wersji: tego komunikatora nie ma jak blokować
Strona główna Aktualności11.05.2018 14:24

eimi
Adam Golański
@eimi
Z jednej strony wskutek starań władz państwowych coraz trudniej o poufność i swobodę anonimowej komunikacji w Sieci, z drugiej powstają coraz lepsze narzędzia, które taką komunikację mimo wszystko umożliwiają. Należy do nich Briar, opensource’owy komunikator, który nie potrzebuje centralnego serwera, i który synchronizuje wiadomości przez sieć Tor, a gdy nie ma dostępu do Internetu, to wykorzysta sieć lokalną, a nawet połączenia Bluetooth.

Briara po raz pierwszy zobaczyliśmy w wersji beta niespełna rok temu. Udostępniony nie tylko w Google Play, ale też w niezależnym sklepie z wolnymi aplikacjami F-Droid, obiecywał najwyższy poziom prywatności i odporność na wszelkie próby cenzury. Dowodem na jego wartość był raport badaczy z firmy Cure53, którzy choć znaleźli w programie trochę niedociągnięć, to jednak uznali go za dobrze radzący sobie w kwestiach prywatności i bezpieczeństwa.

REKLAMA

Z pracami nad Briarem nie spieszono się bardziej niż trzeba. Stwierdzono, że pierwsza stabilna wersja komunikatora pojawi się wtedy, kiedy będzie gotowa. Gotowość tę osiągnięto po 10 miesiącach prac, podczas których usuwano jedynie usterki, nie wprowadzając do aplikacji niczego nowego, a jedynie zbierając opinie użytkowników.

Uproszczony schemat architektury Briara
Uproszczony schemat architektury Briara
Wydana w tym tygodniu stabilna wersja nie zawiera więc nic więcej w stosunku do tego, o czym pisaliśmy w momencie premiery wersji beta. Wciąż naszych rozmówców możemy dodać do listy kontaktowej jedynie poprzez zeskanowanie ich unikatowych kodów QR – wymaga to więc nawiązania wpierw realnego kontaktu. Rozwiązano za to problem nadmiernego zużycia energii przez komunikator, obecnie nie powinien on już tak bardzo wpływać na czas pracy smartfonu.

Od tego wydania rozpoczyna się rozwój nowych funkcjonalności dla Briara. A będzie ich trochę. Pojawić się ma możliwość zdalnego dodawania kontaktów bez ich wcześniejszego spotykania i wysyłania obrazków jako załączników wiadomości. Dalej ulepszana ma być energooszczędność aplikacji. Rozpoczęły się też prace, które umożliwią wysyłanie wiadomości użytkownikom będącym offline – spore wyzwanie, biorąc pod uwagę brak centralnego serwera.

W tym roku położone zostaną podstawy pod zbudowanie klienta desktopowego. Wyczekiwany przez użytkowników klient na iPhone’a raczej jednak się nie pojawi, ze względu na ograniczenia systemu iOS: Apple nie pozwala na długotrwałe utrzymywanie w tle połączeń sieciowych, niezbędnych dla komunikacji P2P.

Briar znalazł się w naszej bazie aplikacji na Androida, od tej pory już w wersji stabilnej. Polecamy zapoznać się z tym ciekawym sposobem na ultraprywatną komunikację.

...

I to jest to czego nam trzeba!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 20:18, 19 Maj 2018    Temat postu:

Niech żyje FreeOffice 2018
autor Salvadhor • 18 maja, 2018 • 9 komentarzy

00


Czy w dzisiejszych czasach powinniśmy kłopotać się takimi niuansami jak edytor tekstu i jego format pliku tekstowego? Niestety jednak musimy. Wiodące rozwiązanie pod postacią Microsoft Office na tyle mocno odcisnęło swe piętno w subkulturach i życiu codziennym, że otwieranie popularnych plików .doc i .docx to dla niektórych obowiązkowy rytuał. I nawet jeżeli nie możemy uruchomić wspomnianego pakietu na naszym systemie, to pliki niekiedy musimy otworzyć i zapisać w tym formacie. Rozwiązań jest oczywiście wiele, choćby wolny LibreOffice. Ale o dziwo większą zgodność ze wspomnianymi formatami deklaruje SoftMaker FreeOffice 2018.


FreeOffice 2018 z testowym .docx
A cóż to takiego? Producent komercyjnego pakietu biurowego SoftMaker Software GmbH jest ze swoim produktem na rynku już od… 1994 roku. Dlaczego tak mało o nim słyszeliśmy? Cóż, z pewnością wpływ na to miały kwestie jakościowe, dostępność, cena i inne parametry dzięki którym to właśnie teraz rozmawiamy o Microsoft Office jako rozwiązaniu wiodącym. Ale najnowsze wydanie SoftMaker Office 2018 i jego darmowej wersji FreeOffice 2018 redefiniuje scenę pakietów biurowych.
Porównanie produktu komercyjnego i darmowego jest oczywiste. FreeOffice 2018 jest w większości pozbawiony zaawansowanych funkcji znanych z wersji płatnej. Niemniej nadal posiada ich tyle, że przeciętny użytkownik nie wykorzysta nawet 50% z nich. Ale to co czyni z niego ciekawą alternatywę dla użytkowników Linuksa to fakt, że program jest dostępny w 32 i 64bitowych paczkach (dla Windowsa tylko 32bit) oraz zapewnia obecnie chyba najlepszą zgodność z formatem .docx. Dodajmy do tego atrakcyjny (kwestia gustu lub przyzwyczajenia) interfejs i pewien z początku niezauważalny fakt:

PID UŻYTK. PR NI WIRT REZ WSP S %CPU %PAM CZAS+ KOMENDA
2618 test 20 0 1346,1m 225,0m 122,0m S 0,0 2,8 0:11.05 soffice.bin
2121 test 20 0 483,0m 85,6m 50,7m S 2,0 1,1 0:12.12 textmaker

LibreOffice 6.0.x i ten sam docx

Otwarcie tego samego dokumentu w LibreOffice 6.0.x i FreeOffice 2018 obnaża nie tylko różnice w zapotrzebowaniu na pamięć RAM (225MB vs 85MB na korzyść FreeOffice 2018). Dokument wygląda po prostu inaczej i według podglądu w PDF bliżej oryginału jest FreeOffice. O ile zapotrzebowanie na RAM być wynikiem „wycięcia” wielu funkcji z tego edytora, to poprawna interpretacja docx jest już po jego stronie bez względu na inne parametry.
Ten pakiet to oczywiście nie tylko wspomniany edytor. PlanMaker i Presentations (obsługa XSLX i PPTX) to arkusz kalkulacyjny i edytor prezentacji które potwierdzają rzetelność rozwiązań SoftMaker Software. Każdy ze zbiorem funkcji i możliwości wystarczających do zaawansowanych prac. Od tej pory użytkownik ma realną szansę na poprawne otwieranie przesyłanych mu dokumentów (w wiodących formatach).


A tak ma wyglądać testowy docx

Co więcej, pakiet można legalnie używać nawet w firmie. Producent po wypełnieniu formularza „pobraniowego” wyśle nam na podany adres email klucz aktywacyjny. Stosowne paczki można pobrać spod tego adresu.
Wobec powyższej optymistycznej propagandy należy pamiętać o dwóch szczegółach. Pakiet jest oprogramowaniem zamkniętym. I na dzień dzisiejszy nie doczekał się polskiej wersji językowej.

...

Czyli kolejny sukces. Wspaniale! Moze ktos spolszczy przynajmniej glowne funkcje. Szkoda nie miec! A dla malych firm gigantyczna obnizka kosztow!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 10:19, 20 Maj 2018    Temat postu:

Warto czekać na nowe Ubuntu. Znamy już listę najważniejszych nowości
Strona główna Aktualności19.05.2018 15:31
fot. Ubuntu na Facebooku
b.munro
Maciej Olanicki
@b.munro
Ostatnie wydania Ubuntu nie mogą być powodem do entuzjazmu użytkowników pulpitowej odsłony tej dystrybucji. Wiemy już, że powrót do pełnego GNOME Shell podyktowany był wyłącznie optymalizacją finansową, gdyż rezultat migracji można najwyżej ocenić najwyżej na dostateczny. Niewiele pomógł tutaj dock mający być protezą tego z Unity, zaś wydanie 18.04 przyniosło niewiele nowości, za to sporo błędów. Canonical w swoim podejściu do rozwoju systemu operacyjnego zaczął (a raczej musiał zacząć) małpować Microsoft – ze względów finansowych priorytetem jest oprogramowanie serwerowe. Perły rzuca się przed udziałowców, nie przed…


A systemy pulpitowe? Jakieś są, ale kto by się nimi przejmować. Wszak bardziej wymagający użytkownik i tak sięgnie po komputery z macOS-em, a mniej wymagający jest bezkrytyczny. Użytkownicy przyzwyczajeni do dystrybucji Linuksa i tak są tutaj w komfortowej sytuacji – nie brakuje przecież systemów, które chętnie przejmą po Ubuntu pulpitową schedę. Ale czy na pewno Canonical powiedział już ostatnie słowo i tempo rozwoju dystrybucji w kolejnych miesiącach będzie tak zachowawcze, jak ma to miejsce od jesieni? Według opublikowanego przez korporację raportu, stanowiącego de facto zapowiedź nowości w Ubuntu 18.10 – nie.

Pierwszym, co nasuwa się po lekturze najnowszego wpisu Willa Cooke’a, dyrektora ds. dystrybucji pulpitowej w Canonical, jest wniosek, że Ubuntu 18.04 to wydanie, w którym wiele zapowiadanych wcześniej zmian nie zdążyło się pojawić. Między wersami sprawne oko dojrzy także komentarz do dużej liczby błędów, jakie pojawiły się w wydaniu, bądź co bądź, o wydłużonym okresie wsparcia. Cook zaczyna bowiem wpis o nowościach Ubuntu 18.10 zapowiedzią Ubuntu 18.04.1. Pojawi się w nim między innymi nowość w ekranie logowania – będzie on umożliwiał wykorzystanie wbudowanych w laptopy czytników papilarnych do odblokowywania systemu. Ponadto w Ustawieniach Gnome’a skonfigurować będzie można gniazda Thunderbolt, zaś paczki snap obsługiwać będą serie interfejsów D-Bus, zwane XDG Portals, które umożliwiają komunikację między procesami.


A co czeka nas jesienią? Nacisk, co chyba nikogo nie dziwi, położono na paczki snap. Optymalizacja Snapcrafta poskutkować ma odczuwalnym skróceniem czasu potrzebnego na uruchomienie programów snap. Ponadto zmiany nastąpią tutaj także dla kluczowych pakietów – Canonical chce, by Chromium w Ubuntu już od wydania 18.10 dostępny był tylko jako snap właśnie. Zmiana ta ma mieć także rezultat wsteczny, gdyż w starszych wydaniach o wydłużonym wsparciu, paczki DEB z Chromium przestaną być dostępne. Decyzja ta nie jest raczej zaskoczeniem – kluczowy pakiet musi być w tej chwili budowany aż dla czterech wydań Ubuntu (16.04-18.10), co pożera mnóstwo zasobów Canonicala.

GS Connect w powłoce GNOME Shell (źródło: Andy Holmes, GitHub)
Nowości pojawią się także w komunikacji pomiędzy urządzeniami. Domyślnie zainstalowany będzie klient DLNA, który umożliwi wymianę danych przez WI-Fi przede wszystkim z telewizorami. W ten sposób bez konieczności instalacji dodatkowych pakietów pecet z Ubuntu stanowić będzie mógł dla telewizora w tej samej sieci serwer multimediów. Znacznie ciekawiej prezentuje się jednak opisywana już przez nas wcześniej pełna integracja danych i funkcji z Androidem. Już jesienią będziemy zatem mogli używać smartfonów z systemem Google do sterowania odtwarzaniem czy wykorzystać ekran dotykowy jako gładzik. Będzie to możliwe dzięki domyślnej dostępności GSConnect, czyli wersji KDE Connect dostosowanej do środowiska GNOME. Trzeba przyznać, że ta nowość zapowiada się ekscytująco, szczególnie po śmierci projektu Ubuntu Convergance.

Temat communitheme będzie w Ubuntu 18.10 domyślnym.
W ostatnim wydaniu Ubuntu pojawiłą się opcja „minimalnej instalacji” – po jej wybraniu użytkownik otrzymywał system wyekwipowany w jedynie najważniejsze narzędzia. Wkrótce (lecz Cooke nie deklaruje, że już jesienią) mają się pojawić znacznie dalej idące zmiany w instalatorze. Canonical chce przenieść swoje doświadczenia z wydania serwerowego i w przyszłości zaproponować wykorzystanie osiągnięć instalatora curtin, doświadczeń zebranych podczas dostarczania MAAS (Metal-As-A-Service, czyli wykorzystywania już istniejącej fizycznej infrastruktury serwerowej do uruchamiania chmury) oraz… frameworka Electron, niestety. Instalator Ubuntu już dziś jest ociężały, a plany zarysowane przez Shuttlewortha nie dają wiele nadziei na zmianę tego stanu rzeczy.

W przeciwieństwie do Ubuntu 18.04, jesienią nie zabraknie czegoś „dla oka”. Otrzymamy bowiem całkowicie nowy temat GTK. Miał on się pojawić już w kwietniu, jednak rozwijana przede wszystkim przez społeczność skórka miała być na to zbyt niedopracowana. Odświeżenie wyglądu Ubuntu ma przebiegać kompleksowo: obok nowych obramowań okien, pojawi się także nowy zestaw ikon, a zapewne i dźwięków. Społecznościowy temat GTK, który już wkrótce stanie się dla Ubuntu domyślny, testować można już dzisiaj. Społeczność udostępnia go jako paczkę snap., wystarczy w terminalu wydać poniższe polecenie.

sudo snap install communitheme

W Ubuntu 18.04 można alternatywnie wykorzystać PPA:

sudo add-apt-repository ppa:communitheme/ppa
sudo apt update
sudo apt install ubuntu-communitheme-session

Jedną z ciekawszych nowości, którą nazwać można metasystemową, zostawiliśmy na koniec. W ostatnim czasie Adam pisał o telemetrii w Ubuntu, podkreślając, że przykład z niej może brać Microsoft. Przejrzystość raportów i wąski zakres zbieranych danych to z całą pewnością złoty środek pomiędzy stosowaniem telemetrii a byciem w porządku wobec swoich użytkowników. Teraz Will Cooke zapowiedział, że zanonimizowane dane zebrane o użytkownikach będą… ogólnodostępne! Canonical ma zamiar uruchomić witrynę, która stanie się krynicą wiedzy o użytkownikach Ubuntu, co będzie przecież nie do przecenienia dla analityków i deweloperów. Oczywiście na telemetrię można w Ubuntu nie wyrazić zgody.

Ubuntu 18.10 będzie nosiło nazwę Cosmic Cuttlefish (Kosmiczna Mąta). Zapowiada się na ciekawą propozycję, przede wszystkim ze względu na implementację bogatych możliwości integracji z Androidem dzięki gnome’owemu odpowiednikowi KDE Connect, czy optymalizacji sekwencji startowych aplikacji dystrybuowanych via snap. Esteci być może docenią odświeżony temat GTK. Zanosi się także na kilka kontrowersyjnych zmian (Electron w instalatorze), które jednak pojawią się dopiero w przyszłorocznych wydaniach. Jesień dla użytkowników Ubuntu rysuje się zatem dość optymistycznie.

...

Oczywiscie warto. Jest to oczywiscie trudna praca i nie wszystko sie udaje. Trzeba dazyc do jakiejs stabilnej wersji ktora wreszcie bedzie strzalem w 10 i zostanie zapamietana na wiele lat.



Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 21:06, 22 Maj 2018    Temat postu:

Duch przeszłości: MCC Interim Linux
Reklama na Linuxiarze.pl


Przeszukując sieć w celu przygotowania do ArchiveOS kolejnej archiwalnej i często już zapomnianej dystrybucji Linux lub innego systemu operacyjnego, natrafiłem na rzadki unikat, warty wspomnienia, choćby w kilku zdaniach.

MCC Interim Linux to dystrybucja Linuksa wydana po raz pierwszy w lutym 1992 roku przez Owena Le Blanc z Manchester Computing Center (MCC), które jest częścią Uniwersytetu w Manchesterze. Była to pierwsza dystrybucja Linuksa stworzona dla użytkowników komputerów, którzy nie byli ekspertami od Uniksa i zawierała instalator oparty na menu, który instalował zarówno jądro, jak i zestaw narzędzi dla użytkownika końcowego oraz narzędzia programistyczne.

MCC po raz pierwszy został udostępniony przez anonimowy FTP w listopadzie 1991r. Irytacja Le Blanka z jego wcześniejszymi eksperymentami z Linuksem, np.: brak działającego fdisk-a, potrzeba korzystania z wielu repozytoriów FTP w celu nabycia całego niezbędnego oprogramowania i problemy z wersją bibliotek zainspirowały go do stworzenie własnej dystrybucji.

Le Blanc twierdził, że odnosił się do dystrybucji jako „interim (tymczasowej)”, ponieważ „… nie są one zamierzone jako ostateczne lub oficjalne, są małe, harmonijne i umiarkowanie testowane. Nie odpowiadają gustowi każdego użytkownika, ale powinny zapewnić stabilną bazę, do której można dodać inne oprogramowanie.”

Trzeba nadmienić, iż w tamtych czasach pojęcie dystrybucji Linux nie było jeszcze znane (rozpowszechnione), a instalację jądra Linux, kompilatorów, bibliotek i dopiero w następnej kolejności aplikacji użytkowych wykonywano ręcznie, pobierając poszczególne elementy systemu z róznych źródeł – od ich twórców (deweloperów).

Jeszcze przed pierwszym wydaniem MCC, najbliższym przybliżeniem do dystrybucji Linuksa były obrazy dyskietek HJ Lu’a o nazwie „Boot-root”. Były to dwie dyskietki 5¼ „zawierające jądro Linuxa i minimum narzędzi wymaganych do uruchomienia”. Tak więc były to minimalne narzędzia, które pozwalały na ładowanie z twardego dysku wymagającego edycji głównego rekordu rozruchowego za pomocą edytora szesnastkowego.

Pierwsza wersja systemu MCC Interim Linux została oparta o jądro Linux 0.12 i wykorzystywała kod pamięci RAM Theodore Ts’o do skopiowania małego obrazu głównego do pamięci, uwalniając stację dyskietek dla dodatkowych dyskietek narzędziowych.

Le Blanc stwierdził także, że jego dystrybucje były „nieoficjalnymi eksperymentami”, których celami było:
– dostarczenie prostej procedury instalacji
– dostarczenie pełniejszej procedury instalacji
– dostarczenie usługi tworzenia kopii zapasowych/odzyskiwania
– tworzenie kopii zapasowej swojego obecnego systemu
– możliwość kompilacji, łączenia i testowania każdego pliku binarnego z bieżącą wersją jądra, gcc i bibliotek
– dostarczenie stabilnego systemu bazowego, który można zainstalować w krótkim czasie i do którego można dodać inne oprogramowanie przy stosunkowo niewielkim nakładzie pracy.

W rzeczy samej, nigdy nie podjęto próby rozpowszechnienia go za pomocą szerokiej gamy oprogramowania, a nawet systemu okien X386.

Wkrótce po pierwszym wydaniu MCC pojawiły się inne dystrybucje, takie jak TAMU, stworzone przez ludzi z Texas A&M University, MJ Martina Juniusa, Softlanding Linux System i mały system bazowy H J Lu dla małych przedsiębiorstw. Te z kolei zostały szybko zastąpione przez Debiana i Slackware, najstarsze i wciąż aktywne dystrybucje.

Dystrybucja MCC Interim 1.0 wykazała, że Debian był „pięciokrotnie większy niż MCC i dość obszerny”, a ostatnio wydana wersja MCC 2.0+ z 4 listopada 1996 roku zachęciła użytkowników do przejścia na Debiana, zapewniając wsparcie związane z migracją.

Wisienką na torcie jest fakt, iż obrazy instalacyjne ostatniego wydania MCC 2.0+ są wciąż dostępne i można je pobrać, np. z naszego ArchiveOS: MCC Interim.

Instrukcja instalacji MCC opisana przez Owena Le Blanc (tłumaczenie własne z języka angielskiego):

Obrazy dysków, które mogą być potrzebne do zainstalowania MCC Interim Linux. Instalacja wymaga dysku (3) i dysku (1) lub dysku (2). Instalacje wymagające sterowników SCSI i sterowników napędów CD-ROM innych niż IDE/SCSI/ATAPI również wymagają dysku (4). Uruchom komputer z odpowiedniego dysku rozruchowego i postępuj zgodnie z instrukcjami.
(1) boot.1200.gz: Ten plik tworzy dyskietkę startową 5,25 cala. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw.
(2) boot.1440.gz: Ten plik tworzy 3,5-calową dyskietkę startową. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw.
(3) root.gz: Ten plik powoduje, że dyskietka główna jest wymagana we wszystkich instalacjach. Istnieją dwa sposoby korzystania z tego pliku:
– (a) Skopiuj go na dyskietkę w trybie surowym bez obrzucania. Jest to normalny sposób korzystania z niego. Zalety: jest szybszy w użyciu. Wady: nie zadziała, jeśli masz 4 Mb lub mniej pamięci; nie można go łatwo zmienić.
– (b) Rozpakuj i skopiuj go na dyskietkę w trybie raw. Zrób to tylko wtedy, gdy musisz zmienić dysk lub zainstalować go w systemie z 4 MB pamięci. Nie będzie działać na dyskach 5,25 cala. Zalety: łatwiej jest zmienić dysk; działa na maszynie 4 Mb. Wady: działa znacznie wolniej.
(4) scsi-cd.gz: Ten plik tworzy dysk sterownika scsi-cd. Musisz spakować ten plik przed skopiowaniem go na dyskietkę w trybie raw. Nie potrzebujesz tego dysku, chyba że potrzebujesz sterownika dysku SCSI lub sterownika napędu CD-ROM innego niż IDE/SCSI/ATAPI.

...

Faktycznie prehistoria.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 20:00, 24 Maj 2018    Temat postu:

Superlekka odmiana Ubuntu zrywa z tradycją, wprowadza nowoczesny pulpit
Strona główna Aktualności22.05.2018 14:33

eimi
Adam Golański
@eimi
Nie tylko na Ubuntu 18.10 warto będzie czekać. Rozpoczął się też przecież cykl rozwojowy dla pozostałych jesiennych odmian smakowych systemu Canonicala, a między nimi znanego z lekkości Lubuntu. To właśnie dla tej dystrybucji wydanie 18.10 będzie rewolucją. Bez zmiany nazwy zmieniony zostaje cały pulpit, przynosząc użytkownikom nawet starszych komputerów środowisko o skromnych wymogach co do pamięci, a responsywne niczym Windows 2000.

Lubuntu od swojego powstania wykorzystywało środowisko graficzne LXDE. Zbudowane na bazie biblioteki GTK+ 2, wyróżniało się bardzo małym zużyciem pamięci i energii – potrzebowało o połowę mniej RAM niż np. Unity w normalnym Ubuntu. W 2013 roku główny opiekun LXDE Hong Jen Yee poczuł się jednak rozczarowany kierunkiem rozwoju biblioteki GTK+ 3, w szczególności jej stale rosnącym apetytem na pamięć. To co dla deweloperów GNOME 3 było nieodzowne, dla niego okazało się szkodliwe. Dlatego zrobił śmiały krok i zaczął eksperymentować z biblioteką Qt.

Wynik eksperymentu był ciekawy. Udało się przepisać kluczowe komponenty LXDE na Qt. Wtedy to z chińskim deweloperem skontaktowali się ludzie rozwijający swoje własne lekkie środowisko graficzne Razor-qt, z propozycją bardzo nietypową jak na linuksowy świat. Skoro nasze cele są tak podobne, połączmy nasze siły – napisali. Szybko zdołano ustalić warunki współpracy, już w lipcu 2013 roku LXDE-Qt został połączony z Razor-qt w jeden projekt LXQt. Zarazem jednak deweloperzy LXDE zapowiedzieli, że będą wciąż rozwijać wersję środowiska bazującą na bibliotece Gtk+ 2.

Minimalistyczny pulpit Lubuntu 18.10 na starcie
To jednak nie ma żadnej przyszłości: stara wersja bibliotek traci wsparcie, z czasem będzie wycofywana. Sądząc po aktywności deweloperów LXDE, praktycznie nic się tam już nie dzieje. Z kolei LXQt rozwija się bardzo dynamicznie: wczoraj wydano nową wersję środowiska oznaczoną jako 0.13. Niski numer niech nikogo nie zwiedzie, to nie jest wersja alfa – po prostu zadeklarowano, że LXQt 1.0 musi obsługiwać w pełni serwer grafiki Wayland. Za stabilne uznawane są wszystkie wydania od 0.11.

Lubuntu było najpopularniejszą z lekkich dystrybucji, które domyślnie wykorzystywały pulpit LXDE. Deweloperzy Lubuntu zdawali sobie jednak sprawę z tego, że nie ma to żadnej przyszłości. Na początku maja główny menedżer projektu Simon Quigley ogłosił, że czas posłać LXDE do lamusa. Lubuntu 18.10 będzie domyślnie oferowane z pulpitem LXQt. To ogromna zmiana, wiążąca się ze zmianą dziesiątków komponentów systemowych i domyślnych aplikacji.

Obietnicę właśnie zrealizowano w pierwszym deweloperskim wydaniu tej wersji, przygotowanym dla 32- i 64-bitowych architektur x86. Pobraliśmy ją do testów, zainstalowaliśmy (ciekawostka, wykorzystywany jest niezależny instalator Calamares, a nie instalator ubiquity z Ubuntu) i musimy przyznać, że jesteśmy pod wrażeniem. Widać pozostałości starego środowiska, pewne niespójności z konfiguracją, ale ogólnie jest to system, który już teraz można uruchomić i po prostu z nim pracować.

Lubuntu 18.10, widoczna m.in. przeglądarka Falkon i menedżer plików PCManFM
Widać, że inspirowano się KDE, włącznie z domyślnym motywem Breeze, ale niech nikogo to nie zmyli: LXQt nie ładuje bibliotek KDE, działa też odczuwalnie szybciej na słabym sprzęcie niż Plazma. Interfejs jest zrozumiały dla każdego, kto kiedykolwiek pracował z Windowsem 95 i późniejszymi – menu Start, pasek zadań, zasobnik systemowy, żadnych fanaberii. Do tego oczywiście cała biblioteka oprogramowania Ubuntu.

Właściwie to tego oprogramowania jest za dużo, jak na lekką dystrybucję. Można mieć nadzieję, że do finalnego wydania zostanie ono usunięte. Obecnie domyślną przeglądarką jest Falkon (znany niegdyś jako Qupzilla), menedżerem plików PCManFM, klientem torrentów Qtransmission, odtwarzaczem wideo SMPlayer. Nie wiadomo po co jednak preinstalowany jest Thunderbird, edytor dźwięku Audacious czy kombajn do e-booków Calibre.

Nie wiadomo jeszcze, czy Lubuntu uniezależni się od tego, co w Kubuntu. Niektóre rzeczy zostały zapożyczone z Plazmy: menedżer partycji, menedżery pakietów Muon i Plasma Discover, menedżer archiwów Ark, a nawet kalkulator KCalc. Przydałoby się poszukać albo stworzyć lżejsze odpowiedniki. Warto jednak pamiętać, że już od wydania Lubuntu 18.04 zwiększono minimalną ilość pamięci do 1 GB. Takie czasy. Samo LXQt w Lubuntu 18.10 po uruchomieniu całego pulpitu zajmuje około 290 MB – to nieco więcej, niż LXDE w Lubuntu 18.04, które zajmowało około 220 MB. Oczywiście nie oznacza to, że Qt potrzebuje więcej pamięci, po prostu taka jest niezoptymalizowana jeszcze konfiguracja pulpitu i często zbytecznie załadowanych komponentów.

Aktualną wersję obrazu instalacyjnego ISO Lubuntu 18.10 Cosmic Cuttlefish możecie znaleźć tutaj. Jeśli coś nie będzie działało, to nie miejcie pretensji do nikogo, do październikowego finalnego wydania zostało jeszcze dużo czasu.

...

Trzeba jeszcze dopracowac. Istotnie im oszczedniej tym lepiej. Bedzie chodzilo plynniej.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 12:11, 05 Cze 2018    Temat postu:

Linuksa 4.17 otrzymaliśmy zgodnie z terminem, po 63 dniach prac deweloperów. Niespodziewanie zmieniła się nazwa kodowa kernela, to już nie „Fearless Coyote”, lecz „Merciless Moray”. Spodziewanie za to Linus Torvalds nie zmienił wiodącego numerka wersji – na Linuksa 5.0 jeszcze troszkę poczekamy, mimo że warunek zmiany numeracji został spełniony: liczba obiektów w repozytorium kodu źródłowego przekroczyła właśnie sześć milionów. A co innowacyjnego w najważniejszym z kerneli tej planety? Zapraszamy do przeglądu nowości, jakie przynosi Linux 4.17.

Koniec sennych koszmarów
Nowa wersja kernela rozwiązuje problem z dziwnym zachowaniem rdzeni w procesorach Intela, które w stanie uśpienia nagle doświadczały nieuzasadnionych niczym wybudzeń. Odkryli to informatycy z Uniwersytetu Technicznego w Dreźnie, przypisując problem interakcjom między procesami działającymi w tle i zarządcą jałowego biegu. Doprowadziły one do błędnych przewidywań czasu usypiania rdzeni w trakcie wysokiego zużycia energii. Jeśli następująca po aktywności faza wybudzenia trwała dłużej, np. do 10 sekund, nie było jak skorygować decyzji w tym czasie.

image
Najlepszą strategią zaradzenia problemowi okazało się wprowadzenie swoistego „budzika”, który jest w stanie poprawić złą decyzję co do stanu uśpienia w krótkim czasie. Przykładowa implementacja została oddana linuksowej społeczności, a następnie trafiła do podsystemu zarządzania jałowym biegiem. Efekt jest taki, że system śpi teraz znacznie efektywniej, zmniejszając zużycie energii o około 10%. Co więcej, aplikacje o skróconych cyklach uśpienia korzystają z mniejszych opóźnień i co za tym idzie, wyższej wydajności.

Co ciekawe, ta zmiana ma też wpływ na procesory AMD – do tej pory usypiano je wywołaniem, które wpędzało w niezbyt głęboką drzemkę. Teraz kernel potrafi przełączyć procesory Ryzen i Epyc w znacznie głębszy stan uśpienia.

Lepsze sterowanie ładowaniem baterii
Wiele ciekawych rzeczy stało się możliwych w kwestii kontroli zasilania. Można m.in. zdefiniować poziomy naładowania baterii, od których firmware zacznie i przestanie je ładować. Takimi funkcjami dysponują niektóre notebooki, wykorzystując je do wydłużenia czasu życia baterii. Wcześniej jednak można było to ustawić tylko z poziomu UEFI/BIOS-u. Teraz na kompatybilnym sprzęcie (m.in. Thinkpadach) będzie można ustawić to z poziomu systemu operacyjnego.

Chronione treści w grafice Intela
Powszechnie dziś wykorzystywany do ochrony treści mechanizm High-bandwith Digital Content Protection (HDCP) uniemożliwia przesyłanie wideo wysokiej rozdzielczości w formie, która pozwalałaby na łatwe tworzenie ich kopii. Osoby zainteresowane oglądaniem chronionych przez DRM treści wideo nie miały łatwo na Linuksie. Jako że nie był on wspierany przez intelowe sterowniki, nie można było na Linuksie takich treści oglądać np. na zewnętrznym wyświetlaczu.

Teraz dzięki pracy deweloperów Chrome OS-a, sterowniki i915 są w stanie poprawnie odtworzyć wideo wysokiej rozdzielczości – na chromebookach możliwe jest już odtwarzanie tak chronionych treści. W teorii powinno być to możliwe także na innych linuksowych systemach – sprawdzimy to jak kernel 4.17 trafi w nasze ręce.

Nowy sterownik AMD dla prawie wszystkich
Ta nowa infrastruktura grafiki Display Core, którą AMD wprowadziło w Linuksie 4.15, aktywowana jest teraz automatycznie także dla starszych kart graficznych. Dzięki temu na opensource’owym sterowniku będą mogli korzystać z HDMI 2.0 oraz przekierowania dźwięku na HDMI i DisplayPort. Dodano też wsparcie dla nowych czipów Vega12, które powinny zadebiutować lada moment.

Możliwe jest już także wykorzystanie platformy obliczeniowej ROCm (RadeonOpen Compute) ze starszymi układami graficznymi. W kernelu 4.18 pojawić się ma wsparcie dla ROCm na współczesnych architekturach Polaris i Vega.

Kernel odszyfruje strumień danych TLS
Ciężka praca odszyfrowania danych z Transport Layer Security została przeniesiona na kernel. Już w Linuksie 4.13 moduł KTLS pozwalał na szyfrowanie danych wysyłanych po TLS, teraz potrafi jest także bezpośrednio odszyfrować. Przekłada się to na zwiększenie wydajności HTTPS i innych protokołów komunikacyjnych korzystających z TLS. Obsługa tego na poziomie kernela to mniej operacji na pamięci, a to pozwala na znacznie efektywniejsze przetwarzanie danych, zwiększa przepustowość i zmniejsza obciążenie systemu i opóźnienia. KTLS lepiej się także integruje z akceleratorami kryptograficznymi.

Oczywiście wciąż kwestie takie jak nawiązanie i konfiguracja połączenia są przetwarzanie przez biblioteki działające w przestrzeni użytkownika, takie jak OpenSSL.

Bezpieczniej i wydajniej w systemach plików
Podstawowy linuksowy system plików EXT4 został zabezpieczony przed uzłośliwionymi obrazami kontenerów, które najwyraźniej mogły linkować do systemu plików hosta, a następnie „wmówić mu”, że są jego częścią… np. podmieniając katalogi /sbin na swoje – i w ten sposób otwierając drogę do uruchomienia malware.

Opiekun systemu Ted Ts’o wciąż jednak podkreśla, że fanom kontenerów nie powinno się wydawać, że podpinanie obrazów systemów plików jak popadnie jest rozsądną rzeczą. Ostrzeżenie słuszne, biorąc pod uwagę rosnącą popularność paczek snap Canonicala.

Z kolei system plików XFS obsługuje opcję montowania lazytime, stosowaną od jakiegoś czasu właśnie w EXT4. Potrafi ona wyraźnie zwiększyć wydajność systemu plików, opóźniając zapisy wywołane potrzebą aktualizacji metadanych.

Na froncie walki z widmami…
Skoro już o bezpieczeństwie była mowa, nowa wersje kernela przynosi ulepszenia w zabezpieczeniach przed Spectre v1 i v3, uporządkowano też kod wywołań systemowych, aby chronić przed atakami korzystającymi ze spekulatywnego wykonywania kodu.

Zmniejszono też narzut generowany przez zabezpieczenia przed atakiem Meltdown na stare procesory, które nie obsługiwały mechanizmu PCID (Process Context Identifiers) – teraz takie systemy z aktywną łatką powinny być znacznie bardziej responsywne.

Oprócz tego kernel 4.17 dostał zabezpieczenie przed Spectre v4, niedawno odkrytą wersją ataku o nazwie Speculative Store Bypass. Łatka na większości systemów jednak nie działa, ponieważ zależy od nowych funkcji włączonych z poziomu mikrokodu Intela, a tego mikrokodu jeszcze nie udostępniono użytkownikom.

Z zupełnie innej beczki, framework bezpieczeństwa AppArmor dostał mechanizm mediacji z gniazdkami sieciowymi, będący warunkiem koniecznym dla lepszej izolacji aplikacji uruchamianych z kontenerów snap. Podsystem kryptograficzny oferuje zaś mechanizm Cipher FeedBack, przydatny w systemach korzystających z Trusted Platform Module 2, oraz lekki szyfr blokowy Speck, który świetnie się spisuje na systemach nie mających sprzętowej akceleracji szyfru AES.

Wiosenne porządki
Ilu z nas kojarzy takie architektury procesorowe jak Blackfin, Cris, Frv, M32r, Metag, Mn10300, Score i Tile? Pewnie niewielu. No cóż, działał na nich Linux, ale już działać nie będzie. Linus zdecydował o usunięciu ponad 465 tysięcy wierszy kodu, odpowiedzialnych za wsparcie tych zapomnianych przez świat architektur.

Między innymi za sprawą tych porządków, Linux 4.17 jest mniejszy od Linuksa 4.16 – ubyło mu łącznie około 180 tysięcy wierszy kodu. Bez obaw, następne wakacyjne wydanie będzie już tłustsze. Zaczekamy na nie do sierpnia. A wszyskich zainteresowanych dokładną listą zmian w linuksowym kernelu zapraszamy na Phoronixa. Niestety kernelnewbies zaprzestało publikować swoje podsumowania – ostatnie jest dla kernela 4.15.

...

Znakomite wiadomosci.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 10:59, 07 Cze 2018    Temat postu:

Nowy Linux Mint czeka, by go przetestować: zapowiada się na system nie do zdarcia
Strona główna Aktualności05.06.2018 23:53

eimi
Adam Golański
@eimi
W tym tygodniu dostaliśmy do ręki pierwsze wydanie beta Linux Minta 19 – dystrybucji, którą od dawna polecamy na łamach dobrychprogramów jako wyjątkowo dopracowanego systemu zarówno dla początkujących, jak i tych, którzy chcą by system im po prostu działał. Po całkowitym rozstaniu z odmianą KDE i skupieniu się na środowiskach graficznych bazujących na bibliotekach Gtk+, ta nowa wersja ma się czym pochwalić. Po spędzeniu z Mintem 19 kilkunastu godzin możemy powiedzieć, że z takim właśnie Linuksem można iść śmiało wyzwalać świat PC, dziś wciąż w zdecydowanej większości należący do Microsoftu.

Wydanie Ubuntu 18.04 nie wzbudziło naszego zachwytu. Zbyt wiele rzeczy było niedopracowanych jak na dystrybucję o wydłużonym okresie wsparcia. Kto zaś zaktualizował system z poprzedniego wydania LTS, Ubuntu 16.04, mógł poczuć, jak uwierać potrafi zmiana domyślnego pulpitu z Unity na GNOME, a co za tym idzie, konieczność zerwania z wieloma dotychczasowymi przyzwyczajeniami. Z tym większym podziwem patrzymy na zespół deweloperów Linux Minta, którzy pokazali, że można na bazie Ubuntu 18.04 zrobić coś naprawdę dobrego i nowego, a zarazem nie przeszkadzać użytkownikom w pracy.

System i jego pulpit
Nowe wydanie Minta bazuje na kernelu 4.15 i bazowych pakietach Ubuntu 18.04: dostajemy demona systemd 237, serwer grafiki X.org 1.19.6, biblioteki Gtk+ 3.22.30, Qt 5.9.5, glibc 2.27 i mesa 18.0.0, oraz kompilator gcc 7.3.0. Na tej solidnej podstawie działa środowisko graficzne Cinnamon w wersji 3.8, dostępne są też odmiany z MATE (1.20) oraz Xfce (4.12.3). Tutaj skupimy się na wersji „cynamonowej”, jako najciekawszej.

O Cinnamonie 3.8 pisaliśmy już miesiąc temu, wówczas udostępniono jego testową wersję.

Przypomnijmy najważniejsze nowości:

ulepszenia w bibliotece muffin pozwoliły na znacznie szybsze (nawet czterokrotnie!) rysowanie nowych okienek,
poprawki w menedżerze plików nemo wyraźnie przyspieszyły wyświetlanie zawartości katalogów, przyspieszyły też wyszukiwarkę plików,
poprawiono integrację okienek typu CSD, a więc z dekoracjami rysowanymi w belce okna przez samą aplikację,
znacznie lepiej wyglądają powiadomienia, łatwiej nad nimi też zapanować, jedynie przeglądarki mogą wysyłać więcej niż jedno powiadomienie na pulpit jednocześnie.
Cinnamon ułatwia korzystanie z laptopów – blokuje ekran przed uśpieniem, pozwala na natychmiastowe wyłączenie przez zamknięcie pokrywy, aktywuje też automatycznie gładzik, jeśli nie wykryje podłączonej myszy.
poprawiono też kontrolkę dźwięku – pozwala na niezależne wyciszanie mikrofonu i głośników, a także ustawienie maksymalnej głośności na 150%,
wprowadzono nowy interpreter JavaScriptu SpiderMonkey 52,
dodano wsparcie dla protokołów [link widoczny dla zalogowanych] elogind i systemd-timedated1
praktycznie wszystkie komponenty zostały przepisane na Pythona 3.
„Mięta” nie do zdarcia
Największą gwiazdą tego wydania jest jednak niewątpliwie system Timeshift. Znamy go już z Minta 18.3, ale tutaj stał się kluczowym elementem całego mechanizmu aktualizacji systemu. Mówiąc prostym językiem – żadna aktualizacja nie powinna zepsuć działania Minta 19, w każdym momencie będzie można „cofnąć” czas i przywrócić ostatnią dobrą migawkę systemu.

Już po pierwszym uruchomieniu systemu zobaczymy nowy ekran powitalny, który w pierwszym z kroków poprosi o wybranie pożądanej strategii tworzenia kopii zapasowych. Domyślnie korzystamy z mechanizmu bazującego na protokole rsync i kopii przyrostowych na wskazanym nośniku, tworzonych z określoną częstotliwością. Bardziej zaawansowani użytkownicy, o ile sformatowali podczas instalacji dysk w formacie Btrfs, mogą poprzez Timeshifta skorzystać z jego zaawansowanych mechanizmów migawkowych. Wszystko to oczywiście przez łatwy w użyciu graficzny interfejs.

Co ogromnie interesujące, deweloperzy Minta połączyli Timeshifta z menedżerem aktualizacji. Ten ostatni polega na Timeshifcie jako gwarancie stabilności – jeśli nie skonfigurowaliśmy strategii tworzenia kopii zapasowych, to menedżer aktualizacji będzie o tym nam przypominał.

I bardzo dobrze. Takie podejście pozwoliło teraz domyślnie włączyć automatyczne aktualizacje systemu. Nawet jeśli coś pójdzie nie tak, przywrócenie Minta z migawki zajmuje dosłownie chwilę.

Oprogramowanie na żądanie
Znany z Minta 18.3 nowy menedżer oprogramowania doczekał się licznych poprawek w interfejsie. Czynią go one znacznie ładniejszym i przejrzystszym, szczególnie za sprawą animacji przejść i lepszego ułożenia kategorii. Lepiej działa też nawigacja klawiaturą, można wreszcie wyszukiwać w kategoriach, samo zaś wyszukiwanie jest znacznie szybsze. Wskaźniki aktywności i ładowania pozwalają zaś łatwiej śledzić stan operacji odbywających się w tle.

Trochę zmieniło się też pod maską. Dzięki zastosowaniu wewnętrznego bufora dla źródeł oprogramowania APT i paczek Flatpak, menedżer oprogramowania traktuje oba typy aplikacji na równi, użytkownicy mogą nimi zarządzać tak samo, niczym się nie martwiąc – wreszcie np. zobaczą rozmiar aplikacji z paczki flatpakowej. A dzięki daleko posuniętej optymalizacji tego bufora, menedżer oprogramowania uruchamia się o wiele szybciej niż wcześniej.

Systemowe aplikacje
Mint od dawna rozwija swoje Xapp, lekkie i całkiem niezłe aplikacje systemowe, które stanową nieodłączną część „cynamonowego” pulpitu. W Mincie 19 edytor tekstowy Xed dostał nowe okno preferencji, okno pomocy dla skrótów klawiaturowych oraz nową wtyczkę do automatycznego uzupełniania słów.

Czytnik PDF Xreader też ma nowe preferencje, wsparcie dla dodatkowych pasków narzędziowych i szybki dostęp do ostatnio otwieranych dokumentów PDF i ePUB. Możliwa jest też zmiana rozmiaru wyświetlanych miniatur, oddzielnie dla każdego dokumentu. Poprawiono płynność przewijania, dodano możliwość usuwania notatek w tekście, wreszcie można też zapisać dokumenty ePUB.

Pozostałe ulepszenia
Pojawiła się możliwość formatowania nośników pamięci USB w formacie exFAT, wskazania domyślnego monitora dla formularza logowania w konfiguracjach wielomonitorowych i poprawiono integrację z pobieraniem plików przez Firefoksa – stan pobierania będzie widoczny na liście okien.

Mint domyślnie zawiera nie tylko kodeki multimedialne, ale i fonty Microsoftu, domyślnie w systemie znalazł się kalendarz GNOME, usunięto zaś komunikator Pidgin, znacząco poprawiono wsparcie dla HiDPI, dodano dziesiątki nowych ładnych tapet.

Wypróbujcie nowego Minta 19 „Tara” sami – obraz ISO znajdziecie tutaj. Jak na betę – kawał świetnej roboty.

....

Potrzebny niebywale bo Win10 jest w stanie agonii...


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 10:54, 09 Cze 2018    Temat postu:

Amerykanie uruchomili najpotężniejszy superkomputer na świecie

Stany Zjednoczone po pięciu latach w końcu zdetronizowały Chiny i mogą teraz poszczycić się posiadaniem najpotężniejszego superkomputera na świecie

.nietrolluje 12 min. temu +1
Niestety, niebawem Chiny znowu wskoczą na pierwsze miejsce, a to za sprawą budowanego superkomputera o nazwie Tianhe-3, który będzie dysponował wydajnością na poziomie nawet 1000 petaflopsów.

Niestety bo... ?

Btw. w artykule chyba nie ma nic o OS:
OPERATING SYSTEM Red Hat Enterprise Linux (RHEL) version 7.4

Pewnie polegli na wyłączaniu aktualizacji na Win10 ( ͡° ͜ʖ ͡°)

..

Nie chcieli czarnego ekranu!
Wyscig trwa wiec to sie bedzie zmieniac.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 19:42, 14 Cze 2018    Temat postu:

Driving the Mars Rovers | Linux Journal

O tym jak projekt marsjańskiego łazika Curiosity mający potrwać 90 dni przciągnął się do 14 lat i trwa nadal. Również o systemie operacyjnym, i oprogramowaniu, które ciągnie cały projekt.
KOMENTARZE (3) : najstarszenajnowszenajlepsze

tomasz_B 6 godz. temu 0
No nie wiadomo czy wytrwa tyle bo jeszcze 14 lat nie minęło od lądowania CURIOSITY na marsie ( ͡° ͜ʖ ͡°)

etutuit 7 godz. temu via Android +3
Jakby uzyli Windowsa to misja zostałaby przerwana przez pierwszą aktualizację. Czyli pewnie trwałaby jakieś 2 dni.

WielkoPolski 4 godz. temu 0
@etutuit: zainstalowałaby się nowa wersja Skypa ( ͡° ͜ʖ ͡°)
...

Zarty ale duzo prawdy.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 11:00, 20 Cze 2018    Temat postu:

Publiczny kod za publiczne pieniądze. Dlaczego w Polsce się to nie uda?
rafal.borawskirafal.borawski 15.06.2018 13:53

Roku Linuksa na desktopach nie ma i zapewne jeszcze przez bardzo długi czas zawołanie to będzie wyłącznie okazją do - zazwyczaj kiepskich - żartów, powtarzanych głównie przez osoby niechętne Linuksowi bądź użytkowników tegoż ostatniego, którzy przy tym charakteryzują się zdrowym dystansem do zagadnienia ekspansji “Pingwina” na komputerach osobistych. Ja samego siebie wolę widzieć w gronie tych ostatnich, a już z całą pewnością nie zaliczam się do tych użytkowników Linuksa, którzy z powodu niskiej penetracji rynkowej biurkowo zorientowanych systemów operacyjnych z logo Pingwina, nie mogą spać po nocach i z całej tej zgryzoty chudną w oczach (choć tego ostatniego trochę żałuję). Przy tym jednak uważam, iż taki wzrost popularności dystrybucji linuksowym w wydaniu desktopowym jest jak najbardziej pożądany, a w pewnych obszarach nawet wysoce wskazany, czemu poniekąd ten wpis jest poświęcony. Dlatego też tak całkiem obojętnym nie pozostaje dla mnie pytanie, czy możliwym jest, by w ciągu najbliższych kilku lat udział linuksowych dystrybucji na komputerach osobistych był w stanie wydostać się z “getta” błędu statystycznego, czyli poziomu 2-3 procent pokrycia rynkowego?

Prawdopodobnie wyjdę w tym momencie na niepoprawnego optymistę, ale uważam, że obecnie jest na to szansa większa niż kiedykolwiek wcześniej, na co składa się kilka mniej lub bardziej ze sobą powiązanych kwestii, choć jeden aspekt wydaje się mi kluczowy i głównie od aktywności w tym obszarze zależy, czy faktycznie będziemy świadkami istotnych wzrostów. Tak się bowiem składa, że za niespełna 2 lata - o ile nic się w tej materii nie zmieni - kończy się wsparcie dla wciąż chyba najpopularniejszego wydania Okienek, czyli Windowsa o szczęśliwej cyferce 7 u swego boku. Prawdopodobnie już teraz w niejednej organizacji trwają prace koncepcyjne w zakresie planowanych działań na tę właśnie okoliczność. Natomiast o ile nie łudzę się jakoś specjalnie, że w przypadku przedsiębiorstw, które obecnie Okienkami stoją, jest w ogóle brana pod uwagę inna opcja niż produkt Microsoftu, to już w przypadku instytucji publicznych nie musi to być takie oczywiste, co mnie cieszy w dwójnasób. Przede wszystkim instytucje publiczne mają o wiele większą społeczną “siłę rażenia” niż nawet największe przedsiębiorstwo, ale przede wszystkim uważam, że akurat w obszarze publicznym otwarte oprogramowanie powinno być standardem, a nie wyjątkiem jak to niestety ma obecnie miejsce.

reklama

O przyczynach leżących u podłoża takiego przeświadczenia - potrzeby silniejsze symbiozy projektów otwarto-źródłowych z instytucjami utrzymywanymi z podatków powszechnych - wspominałem krótko przy okazji wpisu o decyzjach władz Barcelony, które postanowiły pożegnać się z produktami Microsoftu. Wydaje się, że świadomość korzyści płynących z takiego podejścia zaczyna powoli rosnąć wśród naszych ziemskich “pasterzy” również pod innymi szerokościami geograficznymi, o czym może chociażby świadczyć fakt, że niespełna dwa lata temu amerykańskie władze popełniły dokument, który określał - chyba po raz pierwszy w ichniej historii - politykę dotyczącą oprogramowania używanego w instytucjach rządowych. Znalazł się tam między innymi rozdział dotyczący 36 miesięcznego pilota, w ramach którego nałożono na jednostki podlegające władzy federalnej obowiązek publicznego udostępniania przynajmniej 20% z nowo wdrażanego kodu. Zaś jeśli chodzi o przykłady zdecydowanie świeższe, to w kwietniu niemiecki rząd - zresztą właśnie po zakończeniu kilkunastomiesięcznego pilota - podjął decyzję o całkowitej przesiadce tamtejszego centrum informacji technologicznej (ITZBund) na otwarto-źródłowe rozwiązania od Nextcloud GmbH. Z kolei władze Izraela mniej więcej w tym samy czasie zdecydowały się wreszcie na praktyczną realizację rozolucji z jesieni 2014 roku, upubliczniając kod wykorzystywany do działania rządowego portalu, zaś kolejne instytucje publiczne mają być od teraz zachęcane do podobnych kroków.

Oczywiście w kontrze do tego można przywołać zeszłoroczną decyzję nowych władz Monachium, które postanowiły zakończyć kilkunastoletni eksperyment z open-source i tym samym ponownie zbratać się z Microsoftem. Chociaż jakby się dobrze zastanowić, to nawet ten przykład można spróbować wygrać na rzecz tezy o konieczności zmian w podejściu do “własnościowego” oprogramowania w instytucjach publicznych i nie chodzi absolutnie o wypominanie faktycznych czy rzekomych powiązań nowego burmistrza z firmą założoną przez Billa Gatesa. W tym kontekście nie idzie nawet o bajońskie sumy, które pojawiają się w kontekście kosztów migracji “powrotnej”. Chciałbym w tym miejscu zwrócić uwagę na kluczowy - z perspektywy centralnej tezy niniejszego wpisu - aspekt związany w omawianymi tu wydarzeniami. Otóż lokalnym władzom udało się uzyskać potężny dyskont od MS na licencje stanowiskowe (plus deklarację przeniesienia europejskiej siedzi MS do ich miasta), co po raz kolejny pokazuje dobitnie, że monopol zazwyczaj służy wyłącznie temu, kto sprawuje nad nim kontrolę. Trudno bowiem sobie wyobrazić sytuację, w której MS byłby skłonny pójść dobrowolnie na tak dalekie ustępstwa jak w Monachium (czy jeszcze większe kilka lat wcześniej w Chinach), gdyby nie realne widmo odstawienia ich biznesu na boczne tory.

Wracając jednak do mojego wpisu sprzed około 6 miesięcy: przy okazji jego powstania odgrażałem się, że kwestii tej (potrzeby mocniejszego postawienia na oprogramowanie otwarto-źródłowe w instytucjach publicznych) poświęcę kiedyś osobny tekst, ale jak dotąd z tym tematem zawsze było mi jakoś nie po drodze. Prawdopodobnie wszystko rozbijało się o to, że taki wpis wymagałby głębszego namysłu, a nie tylko sprawnych palców i grafomańskich inklinacji, więc zapewne nieuświadomione poczucie przyzwoitości (spełniam tylko 2 z 3 punktów) nie pozwalało mi się tym zagadnieniem zająć jak dotąd. I pewnikiem tak byłoby dalej, gdyby nie ostatni długi weekend i wcale nie chodzi w tym miejscu o fakt nagłej nadpodaży wolnego czasu z nim związanego. Zwłaszcza, że impuls do ponownego pochylania się na tym zagadnieniem pojawił się dopiero w drodze powrotnej z weekendowego wyjazdu i był efektem refleksji - tak i mnie czasem to nieszczęście dopada - nad stanem naszej “państwowości”. A ściślej rzecz stawiając: poszło - jak zawsze - o pieniądze, które ktoś postanowił wyciągnąć z mojego portfela.

Autostrady Wielkopolskie - studium przypadku
Otóż od kilku lat dość regularnie (choć niezbyt często) staję przed koniecznością pokonania autem trasy z Warszawy do Poznania i z powrotem. W tym celu wybieram najszybszą dostępną możliwość, czyli miast jakimiś opłotkami wbijam się na autostradę A2, dzięki czemu w czasie około 3 godzin jestem na miejscu. Być może nie wszyscy wiedzą, ale ten około 300 kilometrowy odcinek autostrady z Warszawy do Poznania zarządzany jest przez 2 podmioty: zdecydowanie dłuższy przez Generalną Dyrekcję Dróg i Autostrad (dalej GDDKiA), zaś drugi niespełna stukilometrowy przez prywatną spółkę Autostrady Wielkopolskie S.A. (dalej AWS). Nie będę się w tym miejscu pochylał nad przyczynami, z powodu których od wielu lat możemy z Warszawy dojechać do Łodzi po A2-ce bez dodatkowych opłat i skupię się wyłącznie na “czynszowej” części trasy. Ta ostatnia zaczyna się właśnie mniej więcej na wysokości Łodzi (patrząc z perspektywy Stolicy) i z grubsza można podzielić ją na dwie równe długością części - pierwsza z nich leży we władaniu państwowym, zaś druga zarządzana jest przez AWS, choć tak po prawdzie zdaje się, że ta obsługiwana przez GDDKiA jest nieco dłuższa. Jednak różnica ta jest na tyle znikoma, że nie ma sensu z tego powodu kruszyć kopi, więc przyjmijmy, że w przypadku każdej z nich mamy do pokonania równo 100 kilometrów.

Niestety jeśli chodzi o płatności, to tutaj “parytety” są mocno zachwiane. W przypadku “publicznej” części trasy za przejazd zapłacimy 9,90 i ta kwota - o ile pamięć mnie nie zawodzi - nie zmieniła się nawet o grosz odkąd przyszło mi z niej po raz pierwszy skorzystać, czyli gdzieś w drugiej połowie 2011 roku. Tymczasem za przejazd “prywatnym” odcinkiem - zarządzanym przez AWS - zostaniemy skasowani aż dwa razy. W roku 2011 oraz przynajmniej na początku 2012 na każdej z tych dwóch bramek trzeba było zostawić bodajże po 13 złotych. Tym samym mieliśmy dwa mniej więcej równe odcinki do pokonania, ale różnie “wycenione”, czyli odpowiednio za 10 i 26 złotych. Dzisiaj po 7 latach cena za przejazd odcinkiem zarządzanym przez AWS wzrosła do 40 złotych, czyli za każdy pokonany kilometr zapłacimy ponad 4 razy więcej niż w przypadku odcinka “państwowego”. Obawiam się, że to jednak nie koniec i dysproporcja ta będzie tylko rosnąć w kolejnych latach. W związku z tym po powrocie do domu zainteresowałem się tym tematem, co by spróbować ustalić, jak dużych podwyżek można się jeszcze spodziewać, bo obecna wysokość haraczu narzuconego przez AWS niebezpiecznie zaczyna się zbliżać do mojej granicy dopuszczalnego bólu.

Obawiam się, że prawdopodobnie nie ma dla mnie - i wszystkich podróżujących tą trasą - dobrych wieści w tym zakresie, bo ponoć AWS są na mocy podpisanej umowy prawdziwym suwerenem w tej kwestii, a ta będzie obowiązywać jeszcze 20 lat (do 2037). Natomiast przy tej okazji mogłem się również dowiedzieć, że jakoś na początku tego roku ta swoista “autonomia” AWS stała się nawet przedmiotem interpelacji poselskich, a jaśnie nam panujący Minister Sprawiedliwości zarządził, by śledczy zbadali temat umowy zawartej swego czasu przez “wraże” władze ze spółką założoną między innymi przez świętej pamięci Jana Kulczyka. Z punktu widzenia niniejszego wpisu nie ma zupełnie znaczenia czy w tym konkretnym przypadku faktycznie doszło do “współpracy” Biznesu z Polityką wykraczającej poza dopuszczalne “standardy”, czyli że był to przykład sytuacji w której zabezpieczone zostały wyłącznie cele tego pierwszego oraz doraźne korzyści jakiejś grupy urzędników państwowych. Tematy “polityczne” zwłaszcza w takiej właśnie odsłonie nie interesują mnie w żaden sposób i wolałbym, żeby nie stały się okazją do wzajemnych połajanek w komentarzach pod tym wpisem. Po prostu zastanawia mnie, dlaczego takie - jak opisywane właśnie teraz - sytuacje uważamy za niedopuszczalne, a po ich upublicznieniu osoby w nie uwikłane spotykają się z dość powszechną krytyką, podczas gdy w obszarze publicznej infrastruktury IT jesteśmy - w pewnym sensie - skłonni uznać to za bezdyskusyjny standard?

Kluczowe pytania
W związku z tym zacząłem sobie dumać, dlaczego w polskiej administracji publicznej przyjmowane jest za oczywistość, że jak system operacyjny to tylko Windows, jak poczta to nic ponad tandem Outlook oraz MS Exchange, a do edycji dokumentów nadaje się wyłącznie MS Word? I tu absolutnie nie idzie o moją rzekomą niechęć do MS, zwłaszcza że w ostatnich latach mój stosunek do firmy z Redmond znacząco się zmienił. W grę nie wchodzi tym bardziej jakoś wyjątkowo krytyczna z mojej strony ocena oprogramowania tworzonego przez koderów zatrudnianych przez MS. Po prostu tak się złożyło, że przez lata ich produkty zdominowały pewne obszary zastosowań, dlatego najłatwiej jest mi właśnie je przywołać w kontekście zobrazowania pewnej “patologii”, której poświęcony jest niniejszy tekst.

Od razu jednak zaznaczę czy też wyjaśnię - poniekąd wbrew tytułowi - że zasadniczym problemem nie jest zamknięty charakter kodu tych rozwiązań, a przynajmniej nie bezpośrednio, ale sposób licencjonowania, gdzie dostawca softu w kluczowych obszarach jest totalnym suwerenem, czyli rości sobie prawo do ostatniego słowa w niemal każdej kwestii, a przy tym posiada stosunkowo niewiele zobowiązań. O ile taka asymetria w przypadku zwykłego konsumenta wydaje się naturalna - “naturalna” w tym sensie, że pojedyncza osoba i jej portfel to zazwyczaj za mało, by rzucić wielkich rynku IT na kolana - o tyle bierna postawa instytucji publicznych jest co najmniej zastanawiająca. A że można inaczej najlepiej świadczy wcześniej przywołany przykład chińskich władz, które zmusiły MS nie tylko do daleko idących zmian w oprogramowaniu tego ostatniego, ale też otrzymały zgodę na inspekcje kodu Windowsa a nawet jego współtworzenie.

Dla pełnej jasności w tym miejscu pozwolę sobie na jeszcze jeden komentarz, bo nie chciałbym, żeby ten fragment był źle zrozumiany. Otóż model biznesowy panujący na rynku oprogramowania przez ostatnie kilkadziesiąt lat z zasady mi nie wadzi, choć pod wieloma względami przydałaby się regulacja niektórych z jego aspektów. Ba, wyznam, że w pewnych obszarach nadal jest mi trudno wyobrazić sobie tworzenie i rozwój wartościowego oprogramowania w modelu innym niż obecnie dominujący, czyli takim gdzie autor aplikacji umożliwia korzystanie z własnego produktu wszystkim chętnym i gotowym uiścić określoną opłatę, bez jednoczesnego zobowiązania do przekazania do niego części praw. A przy tym chociaż święty w tym zakresie nie jestem, to na pewno w przypadku jakiegokolwiek naruszenia tego “prawa własności intelektualnej” nie przejdzie mi przez usta, że oto mieliśmy do czynienia z “nieautoryzowanym kopiowaniem”. Już prędzej usłyszycie ode mnie wówczas o pospolitej kradzieży. Jednakże to właśnie problem praw do kodu jest dla mnie głównym przyczynkiem do krytyki obecnego stanu rzeczy, zaś przywołanie wspomnianej sytuacji dotyczącej kawałka autostrady A2 miał nie tylko służyć jako poręczne narzędzie polemiczne, ponieważ za jego sprawę trochę zmienił się - a może tylko bardziej się utwierdził - mój sposób postrzegania kwestii wykorzystywania własnościowego kodu w instytucjach publicznych.

Jeśli ktoś czytał mój wpis o Barcelonie, ten być może pamięta wyrażoną wówczas przeze mnie ocenę filmowej prezentacji, jaką umieścili na własnej stronie inicjatorzy akcji “Public Money, Public Code”.

Otóż napisałem w tamtym tekście, że inaczej rozłożyłbym akcenty w przedstawionej argumentacji i w znacznie mniejszym stopniu koncentrowałbym się na “demonizowaniu” zagrożeń związanych z naturą zamkniętego kodu. W zasadzie dzisiaj nadal utrzymuję wyrażone wówczas zdanie, jednakże po ponownym przemyśleniu tego tematu w kontekście moich ostatnich doświadczeń “turystycznych”, zdecydowanie poważniej niż wówczas traktuję filmową ilustracje konsekwencji, które wiążą się z faktem, iż instytucje finansowane z naszych podatków przekazują ogromne sumy za … no właśnie: za co? Niestety nie zadowala mnie odpowiedź, iż ten zakres reguluje umowa między stronami, bo przecież w przypadku AWS doszło do podpisania stosownego porozumienia, a mimo to obszar i charakter współpracy w tym ostatnim przypadku budzi szczególny niepokój lub przynajmniej silne kontrowersje. Tymczasem w obszarze IT podobne działania nie wywołują właściwie żadnych emocji. Powiem więcej, po zakończeniu "rządów" AWS nad około 250 km autostrady A2 zostanie chociaż ten kawałek drogi, który rzeczona spółka z Wielkopolski swego czasu - na mocy porozumienia z lat 90-tych ubiegłego stulecia - wybudowała (głównie z własnych środków). Co zostałoby w przypadku decyzji mojego ulubionego chłopca do bicia, czyli Microsoftu, gdyby ten ostatni postanowiłbym któregoś dnia porzucić rozwój Windowsa lub co gorsza zakończyłby swoją działalność nie upubliczniając jednocześnie kodu? Oczywiście można nad tym się zadumać wyłącznie w ramach pewnego eksperymentu myślowego, bo nic nie wskazuje, żeby miało się to w przewidywalnej przyszłości wydarzyć. Ale już całkiem realnym jest scenariusz, kiedy to - tak jak w swego czasu w Monachium czy obecnie w Barcelonie - zapadłaby decyzja o zmianie kluczowego dostawcy systemu operacyjnego. Cóż innego wówczas pozostaje niż wylewanie asfaltu na nowo?

Dlaczego kod powinien być jednak publiczny?
Na szczęście nawet wówczas nie jest tak źle i to chyba dobry moment, by dwa słowa poświęcić jeszcze temu dlaczego uważam, że w przypadku instytucji publicznych istotna jest nie tylko kwestia praw własności do kodu, ale równie kluczowe jest, by tam, gdzie to tylko możliwe, ten kod był upubliczniany. Będzie - mam nadzieję - naprawdę krótko, ponieważ to kolejny mój tekst, który rozrósł się znowu ponad zakładaną miarę, a jeszcze został jeden blok do napisania. Skupię się na dwóch aspektach, które lubimy najbardziej chyba wszyscy, czyli będzie o pieniążkach.

Zacznijmy od wyłuszczenia najbardziej podstawowej różnicy między sektorem publicznym a prywatnym, jeśli chodzi o gospodarkę. Otóż spółki prawa handlowego mają zarabiać, co na niwie IT (w przypadku średnich i dużych przedsiębiorstw) sprowadza się między innymi do tego, że inwestycja w autorski (choć nie tylko) soft jest taktowana jako inwestycja właśnie, która między innymi ma podnosić wartość Spółki i nawet jeśli jej władze nie zamierzają czerpać bezpośrednio korzyści z monetyzacji wdrażanego rozwiązania, to niejednokrotnie przekonałem się, że w świecie rządzonym przez księgowych nierzadko od wielkości trzosu, który jest konieczny do osiągnięcia zamierzonego celu, ważniejsza jest kolumna, w która ten wydatek można zapisać. W każdym razie nakłady na soft są koniecznymi kosztami związanymi z bieżącą działalnością operacyjną i zazwyczaj nikt specjalnie nie przejmuje się konsekwencjami polityki w tym zakresie dłuższymi niż kilka lat. Ma być tanio, szybko i dobrze (wybierz 2 z 3).

Jednakże nawet w przypadku bardzo buchalteryjnie zorientowanych Spółek, pewien stopień racjonalności operacyjnej musi występować, co w efekcie może prowadzić do ścisłej kooperacji z bezpośrednim konkurentem (nie ma tu na myśli nagannych i nielegalnych praktyk związanych ze zmową rynkową). W jednym z moich wpisów wspominałem o liście, który Bill Gates wystosował do ówczesnych władz Apple, gdzie już ponad 30 lat temu podnosił kwestię powszechnych korzyści płynących z takiej interoperacyjności dla wszystkich aktorów w nią zaangażowanych (oczywiście zostawiam na boku kwestię tego czy robił to szczerze) . Dlatego też od co najmniej kilku a nawet kilkunastu lat jesteśmy świadkami spektakularnych projektów (Linux czy Android jest tego najlepszą egzemplifikacją), gdzie różne podmioty grają do jednej bramki (skoro Mundial za pasem, to jedną czerstwą metaforę- mam nadzieję - że mi wybaczycie), ponieważ w szerszej czy dłuższej perspektywie zwyczajnie się to im opłaca.

Spójrzmy bowiem na prace nad jądrem Linux, gdzie jednym z najbardziej hojnych sponsorów jest MS. Otóż w 2011 roku koszty komercyjnego odtworzenie praca nad jądrem Linux (w wersji 2.6.x) zostały oszacowane na około 3 miliardy dolarów i to przy użyciu najprostszej metodologii, która po prostu przekłada liczbę linijek kodu na odpowiednie wartości w amerykańskiej walucie. Jest to ogromna kwota, nie może zatem dziwić, że wiele firm produkujących sprzęt użytkowy stawia na jądro Linux jako podstawę własnych rozwiązań miast budować wszystko od początku. Ta uwaga w takim samym stopniu dotyczy producentów prostych routerów domowych jak i producentów najdroższych aut. Po prostu taka kooperacja się opłaca również podmiotom nastawionym na zarabianie pieniędzy, nawet kosztem potencjalnego zwiększenia konkurencji. A przecież instytucje publiczne działają w oparciu o zupełnie inne cele, więc kwestia budowania potencjalnych przewag nad "rywalami" tutaj nie występuje. Jednakże co ważniejsze: obecnie żadna - nawet najpotężniejsza gospodarka - nie jest w stanie podjąć się wysiłku zbudowanie wszystkiego od podstaw, na szczęście w odwodzie zostają powszechnie dostępne rozwiązania otwarto-źródłowe, które jednak w wielu wypadkach pociągają za sobą pewne zobowiązania w zakresie wykorzystania ich kodu, czyli konieczność dzielenia się własną pracą. Dlatego też obecnie Rosja czy kilkanaście lat wcześniej (bez powodzenia) Chiny, chcąc uniezależnić się od oprogramowania obcej proweniencji, postawiły w pierwszej kolejności na Linuksa.

I tym sposobem przechodzimy do aspektu, który mnie jako przeciętnego "użyszkodnika" szczególnie interesuje. Dzięki obowiązkowi upubliczniania kodu i zaangażowaniu się licznych podmiotów w jego rozwój (czemu niewątpliwie sprzyjałaby inna polityka instytucji publicznych w tym zakresie), mógłbym się cieszyć dostępem do jeszcze większej liczby, jeszcze lepszego (i przy tym zazwyczaj darmowego) oprogramowania. No i przede wszystkim przestać się obawiać aplikacji, które stają się w pewnym sensie standardem na pewnym obszarze, a przy tym są kompatybilne wyłącznie z samym sobą. W przeciwnym razie będziemy nadal świadkami sytuacji, gdy jednym z kluczowych "ficzerów" pewnego oprogramowania biurowego jest fakt, że jego twórcom udało się osiągnąć pełną czy prawie pełną kompatybilność z rozwiązaniem Microsoftu.

Dlaczego w Polsce się nie uda?
Nie będę ukrywał, że ta część tekstu jest efektem zobowiązania nierozważnie złożonego w tytule tego wpisu. Niestety tak się tym razem zdarzyło, że nie miałem pomysłu na inną równie clickbaitową nazwę i teraz muszę jakoś z tego wybrnąć. Z drugiej strony nie mam najmniejszych wątpliwości, iż o powodach, dla których to nie może się udać w naszym pięknym nadwiślańskim kraju, dowiem się dobitnie z komentarzy, które prawdopodobnie pojawią się pod tym wpisem. Oczywiści kilka z takich obiekcji sądzę, że mogę już teraz z dużym prawdopodobieństwem antycypować i nie chodzi mi bynajmniej o niezbyt - moim zdaniem - zadowalającą kondycję polskiego "sektora" open-source, bo tam gdzie jest popyt zazwyczaj dość szybko pojawia się również podaż. Przypuszczam bowiem, iż w pierwszej kolejności spotkam się z zastrzeżeniami o charakterze uniwersalnym, czyli zapewne będę mógł przeczytać, iż jeśli coś jest darmowe, to w praktyce niewiele jest warte. Spodziewam się również zobaczyć opinie, iż wiele oprogramowania własnościowego nie ma zbliżonych jakościowo odpowiedników wśród otwarto-źródłowych rozwiązań. No i last but not least przywołane zostaną legendarne panie Krysie i Basie, których świat zawali się w przypadku konieczności korzystania z narzędzi innych niż z logo MS czy inszego SAP-a.

Jeśli chodzi o dwa pierwsze zastrzeżenie, to nie zamierzam się nad nimi specjalnie pochylać, więc napiszę jedynie, że przywołana wyżej zdroworozsądkowa mądrość o cenie idącej w parze z jakością - jak zawsze w takich przypadkach - czasem się sprawdza, a w innym wypadku już niekoniecznie. Ważniejsze jest jednak coś innego, a mianowicie ukryta przesłanka, którą przyjmuje się domyślnie w tym kontekscie, choć w praktyce jest ona z gruntu fałszywa, a przynajmniej częstokroć taką bywa. Otóż nie jest prawdą, że każdy projekt otwarto-źródłowy jest ze swojej natury przedsięwzięciem hobbystycznym (osoby w nie zaangażowane wcale nie muszą pracować pro bono) ani tym bardziej z definicji nie pozwalającym na godziwy zarobek. Najlepszym przykładem falsyfikującym to ostatnie przekonanie jest działalność Google’a, którego najważniejsze produktu są wydawane na otwartych licencjach, a te z zastrzeżonym kodem w większości przypadków są zwolnione z bezpośredniej odpłatności. Oczywiście ktoś powie, że prawdziwe koszta dla użytkownika końcowego gdzie indziej są ukryte - co samo w sobie może być przedmiotem dyskusji - ale nawet to jasno pokazuje, że upublicznienie kodu w żaden sposób nie blokuje możliwości zarabiania na tego rodzaju sofcie. Po prostu rynek IT stale ewoluuje i w erze myślenia o oprogramowaniu jako usłudze, a nie gotowym produkcie, zmienia się również model biznesowy.

Co do braku odpowiedników, to ponoć z faktami się nie dyskutuje, więc i ja nie podejmę się tego daremnego trudu, ponieważ prawdą jest, że dla pewnej kategorii oprogramowania trudno znaleźć chociaż w części równoważny otwarto-źródłowy ekwiwalent. Natomiast innym faktem jest również, że większość urzędników państwowych czy samorządowych wykonuje dość proste czynności związane z obsługą komputera i naprawdę do sporządzenia służbowej notatki czy odpowiedzi na wniosek petenta w zupełności wystarczy mało wyrafinowany edytor tekstowy, zaś do prostego zestawienia danych liczbowych nada się równie prosty arkusz kalkulacyjny. Tak samo jak do obsługi korespondencji elektronicznej nie musi być z konieczności zaprzęgnięty tandem Outlook oraz MS Exchange.

W ramach anegdoty przytoczę przykład znany mi z kręgów mojej rodziny, gdzie w pierwszych latach XXI wieku osoba spokrewniona ze mną trafiła do instytucji zajmującej się przetwarzaniem danych statystycznych. Jakież było jej zdziwienie i przerażenie, gdy przekonała się ona, iż wszyscy zatrudnieni w jej zespole ludzie (nierzadko kilka lat młodsi) wykorzystywali Excela jako poręczne narzędzie do rysowania tabelek, ponieważ ich praca sprowadzała się do wstawiania cyferek w poszczególne kolumny, natomiast wszelkie - niezbyt złożone - działania algebraiczne na tych danych były również w taki sam sposób do arkusza wrzucane po wcześniejszym przeliczeniu na kalkulatorze. Nie chodzi mi w tym miejscu o dowodzenia bezmyślności takiej czy innej grupy zawodowej, bo podobne "w duchu" sytuacje dane mi było obserwować w całkiem sporych korporacjach. Po prostu wyraźnie na tym przykładzie widać sytuację, w której bardzo potężne narzędzie, jakim jest MS Excel, zostało zaprzęgnięte do realizacji czynności, dla których wystarczał prosty kalkulator i kawałek kartki, a to dzisiaj bywa raczej standardem niż wyjątkiem.

Oczywiście wszędzie tam gdzie tej alternatywy rzeczywiście nie ma nikt przy zdrowych zmysłach z powodów ideologicznych raczej nie będzie wciskał otwarto-źródłowego “odpowiednika”. Wystarczy przecież przypomnieć, iż w Monachium kilka lat trwał pilot wdrożenia, a kolejne działy czy obszary migrowane były stopniowo i nawet po kilkunastu latach liczba pecetów uzbrojonych w Windowa w tamtejszych urzędach była nadal zauważalna (ponoć 20% sprzętu nadal chodzi pod Okienkami). Bardziej rzecz idzie o wdrożenie takich mechanizmów czy regulacji, które promowałyby rozwiązania otwarto-źródłowe lub chociaż takie, gdzie kod stałby się własnością instytucji publicznych, ale nie za wszelką ceną czy każdym kosztem.

Jedyny argument, przed którego wagą muszę ulec dotyczy przemożnej mocy przyzwyczajeń. Niestety liczebność urzędników państwowych czy samorządowych jest na tyle znacząca, że Ustawodawca zawsze będzie zmuszony liczyć się z ich głosem. Oczywiście zmiana rodzaju oprogramowania, na którym przyjdzie pracować przysłowiowej Pani Krysi czy Panu Jurkowi ma zupełnie inny ciężar gatunkowy niż chociażby likwidacja trzynastek czy wydłużenie godziny pracy urzędów. Jednakże wbrew opinii zapewne niejednego czytelnika, wcale nie uważam funkcjonowania administracji państwowej za zło koniecznie, a samych urzędników w całej swej masie za darmozjadów, choć i takich przykładów nie brakuje (sam znam kilka).

Tym niemniej mam wrażenie, że próba zmiany utartych przyzwyczajeń może się skończyć jak historia pewnego entuzjasty wolnego oprogramowania, który w jednej ze szkół postanowił na stojących tam komputerach posadowić Linuksa. Smutna to historia i po cichu liczę, że jednak nieprawdziwa. Niestety przyzwyczajenia czy tam nawyki - jak mawiają - są drugą naturą ludzką, a podsypane "słowiańską" nutą i historią mogą prowadzić do takich właśnie sytuacji. Dlatego bez odważnego ustawodawstwa ciężko będzie o to, byśmy notorycznie nie byli skazani na budowanie małych uliczek czy autostrad rękoma największych świata IT z wszelkiego tego konsekwencjami.

...

Trzeba dostarczyc prosty sprawny Linuks. Ludzie nie potrzebuja go do lotów kosmicznych przeciez!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Pią 19:26, 22 Cze 2018    Temat postu:

deepin Polska - polska społeczność dystrybucji deepin OS

deepin to kompletny system operacyjny, tworzony z pasją i dopracowany w najmniejszych szczegółach. Dostosowuje się do Twojego stylu pracy z komputerem dzięki czemu przejście z dotychczasowego systemu operacyjnego nie stanowi najmniejszego problemu...

...

Polski wklad w wolne oprogramowanie.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 11:06, 24 Cze 2018    Temat postu:

Ubuntu udostępnia pierwsze statystyki: zazwyczaj instalacja systemu trwa tylko 18 minut!
Grzegorz Cichocki 23 czerwca 2018

W Ubuntu 18.04 Bionic Canonical dodało nową opcjonalną funkcję, która odpowiada za zbieranie danych o użytkowniku i systemie. Dzięki temu firma może lepiej zrozumieć jacy użytkownicy instalują Ubuntu oraz jak z niego korzystają. Gigant z Wysp postanowił podzielić się z nami niektórymi statystykami.

Instalacja Ubuntu zazwyczaj trwa tylko 18 minut

Tak, Canonical chwali się, że średni czas instalacji Ubuntu trwa tylko 18 minut. Jest to naprawdę świetny wynik, tym bardziej, że instalacja Windowsa potrafi trwać o wiele dłużej. To jednak nie wszystko. Niektórzy użytkownicy potrafią zejść nawet poniżej 8 minut. Muszę dodać, że Canonical pracuje nad tym, aby system instalował się jeszcze szybciej. Mnie zazwyczaj instalacja zajmuje 12-15 minut.


Ponad połowa użytkowników wybiera Ubuntu jako swój główny system operacyjny na danym urządzeniu. Są jednak również tacy, którzy robią Dualboot, czyli stawiają dwa OS-y na jednym komputerze. Sam tak miałem przez jakiś czas, aż w końcu Linux wyparł Windowsa. Co ciekawe, niewiele osób instaluje system z opcją szyfrowania danych, za to ponad 90% użytkowników podczas instalacji pobiera aktualizacje systemowe.


Wśród użytkowników Ubuntu dominują urządzenia średniej klasy

Gdy zobaczyłem najczęstszą specyfikację komputera, z którego korzystają użytkownicy Ubuntu, miałem wrażenie, że czytam o swoim urządzeniu. A więc do rzeczy – najczęściej ludzie instalują Ubuntu na sprzętach z 4 lub 8 GB RAM-u, natomiast ich monitor zazwyczaj ma rozdzielczość Full HD.


Co ciekawe, nadal popularne są komputery z tylko jednym gigabajtem RAM-u. Na wykresie również znalazło się urządzenie wyposażone w aż 128 GB pamięci operacyjnej. Czyżby to był jeden z superkomputerów? Wiele osób wciąż korzysta z monitorów wyposażonych w rozdzielczość 1366 x 768 pikseli (ostatni raz widziałem takie w szkole). Wyróżniona została również wartość 800 x 600, ale taka rozdzielczość jest najczęściej wykorzystywana na maszynach wirtualnych, więc może to lekko zaburzać statystyki.


Ubuntu najpopularniejsze jest w Stanach Zjednoczonych

Co ciekawe, Ubuntu największą popularność zyskało w Stanach Zjednoczonych. Przypominam, że stamtąd pochodzą takie systemy, jak Windows oraz MacOS. USA to jednak ogromny rynek i jest tam dużo miejsca na przeróżne OS-y. Zaraz za USA znajdziemy takie państwa jak Brazylia, Chiny, Indie oraz Rosja.


W Europie Ubuntu najpopularniejsze jest w Niemczech, Francji, Włoszech, Hiszpanii i oczywiście w Wielkiej Brytanii. Nieco mniejszym rozgłosem cieszy się w Polsce i na Ukrainie.

Reasumując…

Z funkcji gromadzenia statystyk korzysta 67% użytkowników Ubuntu 18.04 Bionic, dzięki czemu możemy uznać powyższe dane za miarodajne. Mnie najbardziej zdziwił średni czas instalacji systemu, który, tak jak wcześniej informowałem, wynosi zaledwie 18 minut. Zastanawiam się również, kto ma ochotę korzystać z Ubuntu mając jedynie 1 GB pamięci RAM. W takim wypadku wolałbym skorzystać z innej dystrybucji Linuksa, na przykład Peppermint OS.

Jak oceniacie powyższe statystyki dotyczące Ubuntu? Korzystacie z Ubuntu lub innego Linuksa? Dajcie znać w komentarzach!

Komentarze

stpawel 1 min. temu via Android 0
To będzie bez wątpienia rok linuxa.

...

Rozwoj linuxa cieszy!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 19:12, 27 Cze 2018    Temat postu:

Oto zwyczaje i komputery użytkowników Ubuntu. Canonical publikuje raport z telemetrii
Strona główna Aktualności24.06.2018 14:50

b.munro
Maciej Olanicki
@b.munro
W lutym Canonical ogłosił decyzję, która z początku wzburzyła użytkowników Ubuntu – dystrybucja od wersji 18.04 miała zbierać dane o użytkowniku, jego zwyczajach i konfiguracji sprzętowej jego komputera. Po kwietniowej premierze nastroje były już lepsze – okazało się bowiem, że telemetria w wydaniu Canonicala powinna być… kanoniczna.

Tak dane o swoich użytkownikach zbiera Ubuntu. Czy można prościej i bardziej przejrzyście?
Ale na zbieraniu danych się nie kończy – Canonical chce się nimi także dzielić, co może stanowić bezcenną krynicę wiedzy dla deweloperów. Jak zapowiedział w maju Will Cooke, w planach jest nawet utworzenie całego serwisu, w którym zanonimizowane dane z telemetrii będą ogólnodostępne. Zanim to się jednak ziści, otrzymaliśmy coś na zachętę – na oficjalnym blogu Ubuntu ten sam Will Cook opublikował raport sporządzony na podstawie danych zbieranych przez Ubuntu.

Pierwszą informacją, jaką podzielił się Cooke jest odsetek użytkowników, którzy w ogóle zgodzili się na zbieranie danych – to jest wszak nieobligatoryjne i zgodę bądź jej brak można wyrazić już podczas instalacji. Na telemetrię w Ubuntu godzi się 67% użytkowników desktopowej wersji dystrybucji. Nie ma już tutaj kolejnych rozróżnień, bo w przeciwieństwie do Windowsa telemetria w Ubuntu jest włączona lub wyłączona, bez ustawień pośrednich czy przełączników

Najczęściej instalacja Ubuntu trwa 18 minut, choć zdarzyły się maszyny, na których system postawiono w 8 minut.
Jeśli użytkownik wyraża zgodę na zbieranie danych, to telemetria działa już podczas instalacji systemu operacyjnego. Dowiadujemy się dzięki temu, że średnio instalacja Ubuntu na dysku twardym trwa 18 minut. Nieźle, a przecież ma być jeszcze lepiej – Cooke zapowiedział w maju, że trwają prace nad nowym instalatorem wykorzystującym dorobek curtina oraz frameworka Electron. W rezultacie instalacja ma przebiegać jeszcze sprawniej, choć już dziś zebrano dane o maszynach, na których Ubuntu postawiono w mniej niż 8 minut.

Pozostając jeszcze przy samej instalacji Ubuntu 18.04, warto przytoczyć dane, według których stosunek aktualizacji z poprzednich wersji do nowych instalacji wynosi 1 do 4, choć faktyczny stan rzeczy zniekształca tu fakt, że Bionic Beaver był wydaniem z początku dość zabugowanym, przez co komunikaty o możliwej aktualizacji systemu były wyświetlane na maszynach ze starszą wersją dopiero po premierze 18.04.1. Sukcesem okazał się natomiast tryb minimalnej instalacji – skorzystało z niego ponad 15% użytkowników.

Opcje instalacji bez zaskoczeń – ponad 90% użytkowników decyduje się na pobieranie aktualizacji podczas instalacji, ponad połowa wybiera instalację oprogramowania własnościowego, zaś nieco ponad 28% wybiera autologowanie.
Canonical zbiera również informacje na temat partycjonowania dysku – 53% użytkowników decyduje się tutaj na pełne wymazanie dysku i świeżą instalację Ubuntu, ręcznie dysk partycjonuje niecałe 22%. Cooke zapowiedział jednak, że zróżnicowanie jest tu na tyle duże, że w instalatorze Ubuntu na pewno pozostanie możliwość ręcznego partycjonowania, a nawet wprowadzone zostaną zmiany, które uproszczą i przyśpieszą ten proces.

Dalej Cooke przechodzi do danych dotyczących konfiguracji systemu i specyfikacji sprzętowej maszyn, na których zainstalowano Ubuntu. Są to jednak niestety dane bardzo ogólnikowe – o procesorach wiemy na przykład jedynie tyle, że w zdecydowanej większości maszyn występuje jeden. Jeśli chodzi o RAM, to najczęściej do dyspozycji jest go 4 lub 8 GB, rzadziej 2. Zdarzają się wciąż instalacje na maszynach z gigabajtem RAM-u, ale odnotowano także kombajn z… 128 GB! Mało szczegółów otrzymaliśmy także o grafice – niewielu użytkowników Ubuntu korzysta z wielu kart graficznych, podobnie rzadko zdarza się wykorzystywanie wielu monitorów. Czyżbyśmy instalowali Ubuntu przede wszystkim na laptopach?

1920×1080, potem 1366×768 i... 800×600. 4K do użytkowników Ubuntu jeszcze nie dotarło, bo i po co.
Na to wygląda, wskazują na to najpopularniejsze rozdzielczości ekranu. Króluje FullHD, tuż przed 1366×768 pikseli – rozdziałką nieśmiertelną i najpopularniejszą właśnie na niedrogich laptopach z ekranem o proporcjach 16:9. Co ciekawe, trzecią najpopularniejszą rozdzielczością wcale nie jest 4K czy popularne na starych monitorach CRT 1024×768, lecz… 800×600. Czyżby to z winy wszystkich maszyn, na których Ubuntu jest, lecz go nie widać, jak na przykład biletomatów?

Na koniec Cooke zostawił popularność ze względu na położenie geograficzne. Trzeba tu jednak zaznaczyć, że jest ono ustalane nie na podstawie np. IP, lecz ustawień regionu w instalatorze. To zapewne dlatego dość nieoczekiwanie Ubuntu najwięcej użytkowników ma w kraju, gdzie synonimem laptopa często jest MacBook – w Stanach Zjednoczonych. Lokalizacja ustawiona USA jest domyślną podczas instalacji. Dalej plasuje się Brazylia, Indie, Chiny i Rosja.

...

Majac dane powinni je chronic. Obawiam sie atakow i wrogiego przejecia.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 9:11, 28 Cze 2018    Temat postu:

Wyszedł Python 3.7

Wszystkie zmiany i nowe ficzery opisane na [link widoczny dla zalogowanych]

...

To kolejna darmowa inicjatywa. Jest to architektura za pomoca ktorej mozna budowac to co chcecie. 99,9% z was tego robic nie bedzie ale dla programistow bardzo cenne.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Wto 11:43, 03 Lip 2018    Temat postu:

SUSE Linux zostało sprzedane
Reklama na Linuxiarze.pl



SUSE

Brytyjska firma Micro Focus International zajmujaca się oprogramowaniem zgodziła się sprzedać SUSE Linux i powiązane z nim oprogramowanie szwedzkiej grupie EQT Partners, zajmującej się prywatnymi akcjami, za 2,535 miliarda dolarów.

SUSE jest jedną z najstarszych firm open source i być może pierwszą firmą, która zaoferowała komenrycjne usługi dla użytkowników Linuksa. Firma ma ponad 1400 pracowników na całym świecie.

Ustalona kwota 2,535 miliarda dolarów USA to 26,7 razy skorygowany zysk operacyjny jednostki oprogramowania SUSE w okresie od 12 miesięcy do końca października 2017.

Patrząc wstecz historii, SUSE nie po raz pierwszy zmieniło właściciela.

Rok po opublikowaniu jądra Linux, kilku niemieckich studentów stworzyło akronim SUSE dla Software- und System-Entwicklung (Software and Systems Development). Sprzedali dyski zmodyfikowanej wersji Slackware Linux i początkowo wspierali przedsiębiorstwa.

W 2003 r. amerykańska firma programistyczna Novell nabyła SUSE za 120 milionów USD. Novell przez długi czas próbował konkurować z Microsoftem na rynku systemów operacyjnych, a przejęcie SUSE było częścią ich strategii.

Nawet SUSE nie mógł powstrzymać upadku Novella a w 2010 r. Novell został przejęty za 2,2 miliarda dolarów przez inną amerykańską firmę The Attachmate Group. Grupa Attachmate została poparta przez Microsoft, a Microsoft nabył ponad 800 patentów firmy Novell.

W 2014 roku Attachmate zostało połączone w brytyjską firmę Micro Focus za 1,2 miliarda dolarów a dziś sperzedane za kwotę ponad dwukrotnie większą.

...

Czy to pomoze?


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 9:28, 08 Lip 2018    Temat postu:

Gentoo Linux po ataku na GitHubie: dwustopniowa autoryzacja to konieczność
Strona główna Aktualności06.07.2018 15:57
Matteo 'Peach' Pescarin, gentoo.org
Xyrcon
Anna Rymsza
@Xyrcon
Użytkownicy Gentoo, jednej z popularniejszych dystrybucji Linuksa, na pewno zauważyli, że pod koniec czerwca do repozytorium dystrybucji na GitHubie wkradł się bałagan. Na stronie wprowadzone zostały zmiany, podmienione zostały też niektóre pliki w repozytorium. Powodem był atak na konto jednego z programistów.

Prowadzący repozytorium już uporali się z problemami i opublikowali szczegółowy raport wydarzeń. Osoby, które 28 czerwca pobierały pliki Gentoo zostały ostrzeżone o niebezpieczeństwie i zalecono usunięcie tych danych. Atakujący starali się zaszkodzić Gentoo na różne sposoby – usuwali uprawnienia innych użytkowników, dopisywali rasistowskie komentarze do plików tekstowych, a w skryptach kierujących kompilacją dodawali polecenie usuwania plików z dysków użytkowników (na przykład rm -rf $HOME ~/ w skrypcie configure w źródłach systemd).

Repozytorium zostało na kilka dni ukryte przed publicznym dostępem. Do 30 czerwca administratorzy Gentoo z pomocą GitHuba uporali się z problemami i przywrócili swoje pliki, zasoby były ponownie dostępne dopiero 3 lipca.

Włamanie było możliwe przez to, że przynajmniej jedna z osób, której konto miało wysokie uprawnienia, nie zastosowała się do podstawowych zasad bezpieczeństwa. Atakujący po prostu zgadli hasło, a ponieważ na koncie nie było dodatkowych zabezpieczeń, bez problemu je przejęli. Oczywiście nie było to możliwe od razu – z raportu wiemy, że próby zalogowania się na konta programistów były prowadzone od 8 kwietnia. Repozytorium uratowałaby dwuetapowa autoryzacja. Całe szczęście, że działania atakujących zaczęły się od razu i można było je łatwo wykryć. Gdyby zamiast od razu wymuszać kasowanie plików złoczyńcy zaczekali, mogliby wyrządzić więcej dyskretniejszych szkód, może nawet zdobyć dostęp do głównych serwerów Gentoo. Widocznie nie zależało im na tym lub nie mieli cierpliwości.

Na szczęście szkodliwość ataku nie była wysoka. Repozytorium Gentoo na GitHubie to mirror tego, co znajduje się na własnych serwerach gentoo.org. Jeśli więc korzystacie z synchronizacji bezpośrednio z nimi, nie ma zagrożenia. Fundacja rozwijająca Gentoo Lunux wymaga teraz, by każdy z dostępem do repozytorium korzystał z dwustopniowej autoryzacji i menedżera silnych, unikalnych haseł. My także polecamy tę praktykę.

...

I tu jakies mendy niszcza.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 21:13, 15 Lip 2018    Temat postu:

Popłoch jądra i planista w pełni sprawiedliwy: polonizacja Linuksa to więcej niż tylko żart
Strona główna Aktualności15.07.2018 14:31

eimi
Adam Golański
@eimi
Przywykliśmy do tego, że słownictwo informatyczne zostało całkowicie zangielszczone. Tradycja polskiej informatyki z lat 70 i 80 poszła w zapomnienie, pozostały tylko niewyraźne wspomnienia o „giętkich płaskokrążkach informacjonośnych”. Czy tak już będzie zawsze? Słuchając mowy polskich programistów czy menedżerów projektów (przepraszamy, „deweloperów” i „pi-emów”), można odnieść wrażenie, że po prostu inaczej być nie może. A jednak niektórzy próbują to zmienić, nawet jeśli brzmi to jak żart. Zaczęli od popłochu jądra.

10 lipca na facebookowej grupie Linuksowa Alternatywa pojawił się zaskakujący wpis Przemka Buczkowskiego. Złożył on petycję, by od teraz kernel panic (czyli poważny błąd kernela, którego system sam nie jest w stanie obsłużyć) nazywać po polsku „popłochem jądra”. Zapewnił przy tym, że nie jest pijany.

I tak właściwie to czemu by nie? Co takiego jest w informatyce, że musimy przez nią zaśmiecać ojczysty język w sposób niespotykany w żadnej innej dziedzinie? Weźmy jako przykład polskie słownictwo matematyczne, które jest pełne spolonizowanych eleganckich określeń technicznych. Nikt nie nazywa przestrzeni parazwartych „parakompaktowymi spejsami”. A przecież jak mówi pewna historia z brodą, gdy podczas rozmów nad pewnym projektem dla amerykańskiego inwestora polscy programiści poprosili o chwilę dla siebie, by szybko coś omówić po polsku, uczestniczący w rozmowie Amerykanie mieli śmiać się, że rozumieją co drugie słowo.

Z pomysłu Przemka Buczkowskiego powstał całkiem konkretny projekt o nazwie polinux, mający na celu stworzenie zestawu łatek dla linuksowego jądra, które zapewnią tłumaczenie na język polski znajdujących się tam „na sztywno” komunikatów po angielsku. Jest to zabawne, ale zarazem ma wartość edukacyjną: porządne przetłumaczenie danej nazwy wymaga jej zrozumienia. Przy okazji tłumacz oswaja się z drzewem kodu źródłowego i uczy kompilować jądra.

Wytyczne tworzenia odpowiednich dla linuksowego jądra polskich słów są w projekcie polinux dobrze pomyślane i prowadzą do stylu, przypominającego prozę Stanisława Lema. Dyskusje nad tłumaczeniami toczą się na wiki projektu – i już widać, że niektóre z przekładów są po prostu wspaniałe. Obok popłochu jądra mamy też komunikaty w rodzaju usiłowano zabić wstępniaka (chodzi o init), właściwości takie jak nie splugawiony (not tainted) czy własne nazwy jak wps (planista w pełni sprawiedliwy – odpowiednik schedulera cfq).

Mamy też piękne tłumaczenia słownictwa z systemu kontroli wersji git – zamiast uprawianych przez korporacyjnych deweloperów pulli i commitów, polscy programiści mogliby popełniać wrepowzięcia i zatwierdzenia.

Polinux przechowywany jest obecnie na githubie, wbijajcie tam – [link widoczny dla zalogowanych]

...

Wlasnie! Ratujmy tradycje jezykowe polskiej informatyki! Trzeba sporzadzic slownik poki ludzie jeszcze zyja z tych lat 60 tych i 70 tych. Po 89 nastapilo otwarcie na Zachod i katastrofa cywylizacyjna. Zostala pustynia. Widzicie w PRLu byli Polacy ktorzy ten PRL obalili tera so nowopolscy czyli amerykany.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 16:49, 19 Lip 2018    Temat postu:

UE nalozyla 4,3 mld kary na google za przegladarke chrome. O co chodzi? Akurat mam Androida i chrome uzywam raz na 100 razy zwykle majac 10 innych przegladarek. Moze nie bede reklamowal.
O co chodzi? Nie wiem. Nie znam sie na budowie wewnetrznej systemow operacyjnych itd. Stad nie moge sie wypowiedziec. Ani UE ani google fajne nie sa.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 18:07, 25 Lip 2018    Temat postu:

Adam Golański Otwarty i darmowy klon Windowsa zbuduje sam siebie, pozwoli zagrać w Warcrafta III

Sen o wolnym Windowsie, rozwijanym zgodnie z potrzebami społeczności, a nie pod dyktando biznesowej strategii Microsoftu jakoś nie chce się rozwiać. Po 20 latach prac ReactOS jest wciąż rozwijany, a wydana właśnie wersja 0.4.9 jest znaczącym krokiem naprzód w tym rozwoju. Otwarty odpowiednik Windowsa można już wykorzystać do zbudowania samego siebie. Świadczy to dobrze o dojrzałości kernela ReactOS-a, gdyż mało zadań jest równie obciążających pamięć i I/O systemu, co właśnie wielowątkowa kompilacja i linkowanie dużego projektu software’owego.
reklama
Osoby zainteresowane ReactOS-em pamiętają, że ponad 10 lat temu system ten już pozwalał na skompilowanie samego siebie. Jednak ulepszenia wprowadzane w kernelu, mające uczynić go bardziej kompatybilnym z kernelem NT, sprawiły że system zawieszał się przy budowaniu większych projektów, zawodziła komunikacja z systemem plików. Udało się do tego wrócić w dużym stopniu dzięki kodowi zapożyczonemu z FreeBSD, konkretnie implementacji funkcji sortowania qsort. ReactOS 0.4.9 ma być też znacznie bardziej stabilny. Namierzono główne źródło dotychczas pojawiających się niestabilności, to sterownik systemu plików FastFAT, który nadmiernie pochłaniał dostępne bufory przy kopiowaniu większych plików. Po skorygowaniu jego zachowania mechanizmem dławienia zapisu i ograniczeniu dostępu do bufora nieco spadła wydajność systemu w operacjach I/O, w zamian jednak wyeliminowano awarie.
Ważną zmianą jest też poprawnie obsługi nieczystych wolumenów: teraz jak zostaną wykryte, system automatycznie wywoła narzędzie chkdsk by naprawić ich strukturę. Pozwoli to uniknąć uszkodzeń plików, a nawet nieodtwarzalnych uszkodzeń calego systemu plików po zawieszeniu się ReactOS-a. Tym zmianom „pod maską” towarzyszą ulepszenia graficznej powłoki systemu. Podobnie jak Windows, ReactOS potrafi już obsługiwać w swoim menedżerze plików archiwa ZIP poprzez rozszerzenie zipfldr – nie trzeba instalować więc żadnych dodatkowych narzędzi. Przetwarzanie archiwów jest bardzo szybkie. Kolejne ulepszenie to rozszerzenie możliwości operacji przeciągnij i upuść zrobionej z prawym przyciskiem myszy – teraz wywołuje to menu kontekstowe pytające, czy plik ma zostać przeniesiony, skopiowany czy też jedynie utworzony skrót do niego. Drobiazg, ale twierdzą autorzy, był trudny w zaimplementowaniu.
Nowa wersja systemu doczekała się też licznych ulepszeń menedżera urządzeń, miksera dźwięku, ustawień myszy, schowka i powłoki tekstowej. Można definiować własne rozszerzenia plików i powiązywać je z aplikacjami. Dodano możliwość prezentowania się oprogramowaniu win32 jako Windows 8.1 i położono podstawy pod możliwość uruchamiania w przyszłości ReactOS-a z urządzeń USB. Dzięki tym wszystkim wprowadzonym zmianom wzrosła kompatybilność z windowsowym oprogramowaniem. ReactOS 0.4.9 uruchomi wiele klasycznych gier, w tym StarCrafta, Worms Reloaded i Warcraft III: Reign of Chaos. Udało się nawet uruchomić emulator Maka PearPC z systemem Mac OS X 10.4. To oczywiście w dużym stopniu zasługa projektu Wine – wiele bibliotek DLL jest zapożyczonych z jego wersji 3.3 Staging.

...

I najwazniejsze Might and Magic! Istotnie poniewaz byl monopol to praktycznie wszystko bylo na Windowsa a niekiedy moze mialo inne wersje...
A Billus chce co 4 lata kasy na nowy system i dlatego stare gry nie pojda na nowych Windowsach gdyz po to je zmieniali abys musial kupic wiec nie pasuje.
Gdyby na starym systemie chodzily nowe gry to po co zmieniac system?
Stad masa roboty wynikla tylko ze ,,strategii'' Gatesa. I brawo ze ludzie robia. Jakis emulator na Android Win od 95 do xp by sie przydal to by mozna poszalec mobilnie w te swietne gry!
Zainteresowani ReactOS-em znajdą obrazy ISO (LiveCD i BootCD) na stronie projektu .


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Pią 17:58, 27 Lip 2018    Temat postu:

Linux Polska – technologia open source napędza biznes
9 na 10 osób biorących udział w badaniu przeprowadzonym przez Linux Polska przyznało, że firma, którą reprezentują, korzysta na co dzień z narzędzi open source. Według firmy doradczej Forrester, programiści pracujący aktualnie nad rozwojem nowych aplikacji nawet w 80-90 proc. korzystają z otwartych komponentów. Wspomniana technologia jest obecnie kluczowym kierunkiem rozwoju sektora IT, a także motorem napędowym innowacji w wielu gałęziach gospodarki. Ale jej początki nie były łatwe. W lutym minęło dokładnie 20 lat od spotkania The Open Source Initiative (OSI) uważanego za symboliczne narodziny ruchu open source, któremu początkowo nie wróżono sukcesu. Wydarzenie dało również początek organizacji, której misją jest promowanie otwartych rozwiązań. Jednym z założycieli OSI był Eric S. Raymond, autor „19 przykazań” zawartych w eseju, a potem w książce pt. The Cathedral and the Bazaar , które do dziś stanowią aktualną listę dobrych praktyk, ważnych dla programistów pracujących na otwartym kodzie.
Historia jednej przeglądarki
Na początku 1998 r. Netscape, firma współpracująca z Raymondem opublikowała kod źródłowy swojej przeglądarki Netscape Communicator, co stanowiło impuls do zorganizowania spotkania The Open Source Initiative, na którym powołano do życia organizację wspierającą rozwój otwartego oprogramowania. OSI przyczyniła się do opublikowania dokumentu pt. „Open Source Definition”, a tym samym do upowszechnienia się samego terminu. Open source dotyczy oprogramowania, którego kod źródłowy został upubliczniony i jest powszechnie dostępny – w odróżnieniu od rozwiązań zamkniętych, gdzie taka wiedza objęta jest tajemnicą przedsiębiorstwa.
Jak zaznacza Dariusz Świąder, Prezes Zarządu Linux Polska: – Popularność rozwiązań opartych o technologie open source pokazuje, że można z powodzeniem działać w branży technologicznej, udostępniając jednocześnie swoje know-how w postaci kodu źródłowego oprogramowania. Dwie dekady temu rynek nie widział w takim podejściu biznesowego uzasadnienia. Dziś z open source codziennie korzystają choćby miliony użytkowników smartfonów. Otwarty kod jest silnie obecny także w oprogramowaniu dla biznesu. Wiele firm posiadających własne centra danych, korzysta właśnie z otwartych systemów operacyjnych. Z kolei, jeśli przyjrzymy się najistotniejszym kierunkom rozwoju IT, okaże się, że również one są zdominowane przez otwarte technologie. Wystarczy wymienić rynek konteneryzacji, data science czy uczenia maszynowego. Open source należy więc postrzegać jako źródło innowacji w sektorze technologicznym.
Dlaczego firmy stawiają otwarte rozwiązania?
Wszechobecność open source w dzisiejszym świecie IT obrazuje analiza The Forrester Wave: Software Composition Analysis. Według tego opracowania, nawet 80-90 proc. kodu w nowo powstałych aplikacjach pochodzi z otwartego źródła, a tylko 10-20 proc. zostaje napisane od nowa przez deweloperów. Dostępność komponentów oprogramowania o otwartym kodzie źródłowym przyspiesza, usprawnia i zmniejsza koszt tworzenia nowych aplikacji, pomagając zaspokoić popyt generowany zarówno przez wewnętrzne potrzeby organizacji, jak i klientów zewnętrznych. Wyniki badania wskazują również na jedną z głównych zalet ruchu otwartego oprogramowania – dzielenie się wiedzą. Co skłania programistów do udostępniania swojego kodu, a co za tym idzie – dzielenia się własnym czasem i cennym doświadczeniem z innymi? Udział w projektach open source pozwala najszybciej i najefektywniej szlifować posiadane kompetencje oraz zdobywać nowe umiejętności. Co istotne, można również liczyć na rzetelną informację na temat swojej pracy. Nad otwartymi rozwiązaniami pracuje bowiem wielomilionowa społeczność specjalistów, która nieustannie weryfikuje jakość i poprawność kodu, oraz projektuje nowe funkcjonalności, które usprawniają pracę innych osób tworzących oprogramowanie.
Według badania Black Duck Open Source 360 Survey, przeprowadzonego wśród ok. 900 respondentów, już 90 proc. organizacji używa otwartego oprogramowania, a 60 proc. zwiększyło skalę jego wykorzystania w ciągu ostatniego roku
– Popularność otwartych technologii jest dobrze widoczna również na naszym rynku. Ten trend potwierdzają wyniki badania przeprowadzonego w maju – Polski Rynek Open Source 2018. Otwarte oprogramowanie jest nie tylko powszechnie stosowanie w wielu przedsiębiorstwach, ale też ma realny wpływ na rodzimy biznes – dodaje Dariusz Świąder.
Jeszcze więcej open source
Rozwój ruchu otwartego oprogramowania przyspiesza wraz ze wzrostem świadomości firm technologicznych, które zaczynają dostrzegać korzyści z kontrybucji. Co czwarta firma biorąca udział w ankiecie Black Duck przyznała, że przynajmniej połowa zatrudnionych w nich deweloperów uczestniczy w rozwijaniu minimum jednego projektu open source. Powszechność open source sprawia, że na tę technologię otwierają się również firmy kojarzone dotąd powszechnie z oprogramowaniem zamkniętym. Przykładem jest Microsoft, który dziś jest największym korporacyjnym kontrybutorem otwartego kodu.
źródło: Linux Polska

...

Gigantyczne oplaty licencyjne z uwagi na coprighty powoduja ze OS bije wszelka konkurencje. A poza tym wytwory OS zaspokajaja wszelkie potrzeby. Nie mowiac juz ze potrafia lepiej dzialac i mniej sie psuc.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Nie 16:23, 29 Lip 2018    Temat postu:

Linux Mint 19 dla zapracowanych
autor Salvadhor • 24 lipca, 2018 • 55 komentarzy
← PhotoTeleport 0. 6 Basemark 1. 0 . 2 – młot na karty graficzne →
Translate »
Flatpak i jego koncepcja
Osoby którym wolny czas wyznacza początek przerwy na sen po skończonej pracy a wieńczy barbarzyński dźwięk budzika nad ranem, nie mają czasu na delektowanie się system operacyjnym. Z wiekiem coraz ciężej znaleźć czas na wycieczki po terminalu czy też ustawieniach systemu. Paradoksalnie wiele z tych osób zdecydowało się na Linuksa właśnie po to, aby tego nie robić. Przy odrobinie szczęścia i kompatybilności sprzętowej są w stanie system zainstalować i używać na domyślnych ustawieniach. Nawet przez najbliższe kolejne lata. Niemniej, czy Linux Mint 19 może nam dać radość kontroli, poczucie bezpieczeństwa oraz wytchnienie od standardowych kanonów wizualnych?
System na standardowych ustawieniach powinien być używalny. I taki jest Linux Mint 19. Nie potrzebujemy praktycznie żadnych działań z naszej strony, by kernel w tandemie ze środowiskiem graficznym sprawnie napędzał nasz komputer. Owszem, to teoria z tezą szczęśliwej koegzystencji systemu z komponentami elektronicznymi. Niemniej, ta machina ma o wiele więcej możliwości niż tylko samoistnienie. Może nam ułatwić życie. Oto kilka najbardziej podstawowych odruchów świeżo upieczonego posiadacza Linux Minta 19.
Aktualizacje, aktualizacje
To oczywiście wyświechtany komunał – ale system należy aktualizować. Szczególnie jeżeli podczas jego instalacji nie wybraliśmy w instalatorze opcji „ Pobierz aktualizacje podczas instalacji”. Przyczyny tego mogły być różne – chcieliśmy zainstalować system w ekspresowym tempie, nie podłączyliśmy się do sieci podczas instalacji, itp. Teraz czas nadrobić te zaległości – wybieramy Menu -> Administracja -> Menedżer Aktualizacji. W ten sposób unikniemy różnych niedomówień w systemie które zostały naprawione poprzez aktualizacjach.
Bądź multimedialny
Kolejna pozycja obowiązkowa dla zapominalskich lub ustanawiających rekordy w czasie instalacji. Jeżeli w instalatorze nie została zaznaczona opcja „Zainstaluj oprogramowanie firm trzecich”, to nasz system nie będzie w stanie obsłużyć większości popularnych formatów audio-wideo jak choćby mp3, mp4. Naprawiamy to uruchamiając Menu -> Administracja -> Menedżer Oprogramowania i instalując paczkę mint-meta-codecs .
System dla potomnych
Od wersji Linux Mint 18.3 twórcy mocno pochylili się nad bezpieczeństwem i wygodą użytkowników. Zaprezentowane zostało wtedy narzędzie Timeshift które automatyzuje proces tworzenia kopii zapasowych systemu operacyjnego. Przed dalszym klikaniem po systemie zróbmy sobie zatem jego kopię. Wystarczy uruchomić Menu -> Administracja -> Timeshift. Wskazujemy miejsce gdzie mają tworzyć się przyrostowe kopie systemu (a zatem zawierające tylko zmienione pliki). W razie awarii – przywracamy system.
Linux Mint ma sterowniki
Chociaż na pierwszy rzut oka nic na to nie wskazuje, to w Mincie jak i w każdym systemie operacyjnym pieczę nad komponentami naszego komputera sprawują sterowniki. To, że system działa „samodzielnie” po instalacji nie oznacza, że nie możemy spróbować wycisnąć więcej z naszych urządzeń. Zwykle pomagają w tym sterowniki wprost od producenta. Zwykle też są to sterowniki do kart graficznych. Ale nie tylko. Sprawdzamy to udając się do Menu -> Ustawienia systemowe -> Zarządzanie sterownikami. Po chwili system wyświetli nam dla którego urządzenia możemy spróbować innego sterownika. Pobieranie sterowników ze strony producenta nie jest wymagane i jest to ostateczność z której mogą skorzystać zaawansowani.
Znajdź swoje programy
Zwykle przeciętny użytkownik nie ma ambicji szperania za jakimś oprogramowaniem. Wystarcza mu to, co systemem ma zainstalowane domyślnie. Lecz warto rozważyć niestandardową ofertę repozytoriów linuksowych. Może się okazać, że:
domyślną przeglądarką może zostać Google Chrome ,
w roli odtwarzacza wideo doskonale sprawdzi się doskonały VLC ,
Spotify da dostęp do streamingów,
Darktable pozwoli profesjonalnie obrobić zdjęcia RAW,
Skype umożliwi rozmowy ze znajomymi,
z Shotcut wyedytujemy pliki wideo,
Atom to coś w sam raz dla programistów,
Dropbox do nam dostęp do naszego Dropboksa.
Wszystko to znajdziemy w Menu -> Administracja -> Menedżer Oprogramowania .
Korzystaj z paczek Snap i Flatpak
Pomimo oczywistego spowinowacenia z Ubuntu 18.04 LTS, Linux Mint 19 nie oferuje w standardzie obsługi paczek Snap . Jednak z Menedżerem Oprogramowania została zintegrowana możliwość instalowania paczek Flatpak. Dostępne jest zatem całe oprogramowanie jakie znajdziemy na [link widoczny dla zalogowanych] . By obsłużyć paczki Snap potrzebujemy pakietu snapd .
Jeżeli ktoś nie jest przekonany, czy wie o czym jest mowa, to przypomnę. Snap i Flatpak to dwa formaty uniwersalnych paczek, które dają się instalować na dowolnej dystrybucji bez konieczności dziwnych zabiegów. W przypadku Flatpaka i Linux Minta 19 wystarczy znaleźć w internecie program i kliknąć na linku do pliku *.flatpakref , który zostanie otworzony w Menedżerze Oprogramowania. W przypadku paczek Snap potrzebna będzie podstawowa edukacja jak je instalować (terminal).
Oczy to podstawowe wyposażenie
W wielu systemach operacyjnych i środowiskach graficznych zaczęto dbać o zdrowie użytkowników. Polega to na tym, że światło emitowane przez nasz wyświetlacz jest dostosowywane do panującej pory dnia. Tym samym nocą nie smażymy sobie oczu w niebieskiej poświacie z naszego monitora – barwa ta zostaje ocieplona. Niestety, Linux Mint 19 nie posiada tej opcji w standardzie. Tzn. posiada, ale program Redshift nie jest domyślnie uruchamiany. Po jego odpaleniu z Menu -> Akcesoria -> Redshift możemy aktywować go na przyszłość – PPM na ikonie w zasobniku systemowym i Uruchamiaj Automatycznie.
Stacer dla pełnej kontroli
Stacer to bardzo ciekawym program który stwarza wspaniałe możliwości opieki nad systemem. Oprócz ładnego wyświetlenia podstawowych informacji o zasobach komputera, dowiemy się też, jakie usługi mamy na nim uruchomione, jakie programy startowe, jakie repozytoria są w użyciu. Będziemy tym wszystkim mogli zawiadywać, aktywować i deaktywować PPA, usuwać pamięć podręczną pakietów i wiele innych rzeczy. Program zdecydowanie dla bardziej ambitnych osób.
Zyskaj na czasie
Niektóre rzeczy można zoptymalizować. Jak choćby czas pracy naszego laptopa na baterii. Domyślnie paczka tlp nie jest zainstalowana i niektóre ustawienia systemu spowodują, że będzie pracowali krócej. Wystarczy zainstalować tlp i niektóre ustawienia automagicznie się poprawią. Uwaga – nie należy używać tego programu razem z laptop-mode-tools .
Poznaj swój system
Nie bójmy się jednak od czasu do czasu zerknąć w Ustawienia Systemowe, czy przegrzebać kategorię Administracja lub Preferencję. Odkryjemy tam wiele ciekawych narzędzi, jak choćby Kopia Bezpieczeństwa Danych, Ustawienia Qt5, konfigurację zachowań narożników, ustawienia powiadomień, itp. itd.
Upiększ swój system
Domyślnie Linux Mint 19 ze swoim domyślnym tematem graficznym Mint-Y wygląda całkiem całkiem. Niemniej nie ma rzeczy, której nie można by było poprawić. W tym przypadku możemy skorzystać z Menu -> Ustawienia Systemowe -> Motywy. Znajdziemy tam sekcję odpowiedzialną za tematy dla powłoki Cinnamona. Wystarczy odświeżyć pamięć podręczną i potem zainstalować te które wpadły nam w oko. Automatycznie pobiorą się z internetu. Gorzej jest z tematami właściwymi dla programów, ikonami, itp. Te musimy namierzyć samodzielnie i umiejętnie skopiować do katalogu
~/.themes/ (tematy graficzne) i ~/.icons/ (ikony). Sugestie? Tematy graficzne: Marwaita , Shades of Gray , CobiBird , Telinkrin , Ant i wiele, wiele
innych .
To oczywiście jedne z podstawowych porad jakie cisną się pod palce. Są to też zarazem sugestie dla typowych użytkowników. Można jeszcze opisywać sposoby konfigurowania firewalla, metody na przyśpieszenie startu systemu, optymalizację wykorzystania pamięci, konfigurację pamięci swap. Ale to już temat na inną opowieść.

...

Warto czytac porady.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 9:16, 01 Sie 2018    Temat postu:

Czym jest open source, czyli otwarte oprogramowanie?
JEDYNKA
9 na 10 firm, w tym te jednoosobowe, korzysta z oprogramowania otwartego. Czym jest open source? Skąd ich taka popularność w biznesie? - w radiowej Jedynce Dariuszem Świądrem, prezes Linux Polska rozmawiał Błażej Prośniewski.
Największym odbiorcą open source są firmy telekomunikacyjne oraz banki.
Według ekspertów otwarte oprogramowanie jest kluczowym kierunkiem rozwoju sektora IT a także motorem napędowym innowacji w wielu gałęziach gospodarki.
Dariusz Świąder, prezes Linux Polska wyjaśnia, że open source oznacza "wytwór pracy informatyków wraz z kodem źródłowym dostępny dla wszystkich". - Możemy je modyfikować i na tym polega tworzenie oprogramowania open source - dodaje.
Otwarte czyli niebezpieczne?
- Nie! Trzeba zmienić sposób myślenia. Jeśli coś jest otwarte i widoczne to każda próba manipulacji przy takim rozwiązaniu jest natychmiast wykrywana, ponieważ te rozwiązania są oglądane przez miliny ludzi. A jeśli wykryje się lukę, szybko jest ona usuwana. W przypadku oprogramowani zamkniętego zanim wykryje się lukę mija dużo czasu - podkreśla ekspert.
A dlaczego firmy częściej wybierają oprogramowania otwarte?
Zdaniem Dariusza Świądra powodem jest dostępność, możliwość współpracy z wieloma podmiotami, efektywność kosztowa i możliwość dostosowania oprogramowania do swoich potrzeb.
Największym odbiorcą open source są firmy telekomunikacyjne oraz banki. - Czyli tam gdzie potrzebna jest szybka reakcja - podkreślił ekspert.
Czy zatem open source może stać się podstwa do rozwoju innowacyjnej gospodarki w Polsce? - Zdecydowanie tak. To widać po nastawieniu administracji publicznej, która potrzebuje skoku technologicznego. W ogóle idea otwartości, nie tylko w informatyce, jest podstwą rozwoju wiedzy - dodał prezes Linux Polska.
Naczelna Redakcja Gospodarcza, Błażej Prośniewski, kw

...

Zdecydowanie jest to najlepsza forma dla internetu.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Śro 19:45, 01 Sie 2018    Temat postu:

Maciej Olanicki

Zeszłotygodniowy raport o postępach w pracach nad kolejnym wydaniem Linuksa Minta obiecywał, że już pod koniec sierpnia ukaże się nowa wersja testowa bazująca na Debianie. Okazuje się, że twórcy zostawili sobie sporo rezerwy – beta systemu Linux Mint Debian Edition 3 dostępna jest już dziś!
reklama
LMDE 3 nosi przydomek „Cindy”, obrazy bety można pobrać z serwerów producenta w wersji 32-bitowej oraz 64-bitowej . Jedną z mocniejszych stron Minta bazującego na Debianie pozostają niskie wymagania sprzętowe. Nie uległy one zmianie od ostatniej wersji i z LMDE wciąż można korzystać na maszynach z gigabajtem RAM-u. Dla „komfortowego” działania systemu przyda się kolejny gigabajt. Czysta instalacja Cindy na dysku zajmuje około 15 GB, twórcy rekomendują jednak wygospodarowanie 20 GB.
Pulpit LMDE 3 tuż po instalacji.
Linux Mint Debian Edition 3 bazuje na wydanym w czerwcu zeszłego roku Debianie 9.0 Stretch wykorzystującym jądro Linux w wersji 4.9. Dobre wieści mamy dla użytkowników, którzy korzystają z LMDE na maszynach wirtualnych nadzorowanych przez VirtualBoksa . Odtąd system będzie obsługiwał VirtualBox Guest Additions. Dzięki temu na maszynie z LMDE korzystać można już ze współdzielenia folderów z hostem, akceleracji sprzętowej, przenoszenia plików metodą przeciągnij i upuść, czy większej rozpiętości rozdzielczości ekranu.
Warto zwrócić uwagę, że w nowym LMDE domyślnie zablokowane jest konto roota. Aby, je aktywować, należy w Terminalu wprowadzić polecenie sudo passwd root i ustanowić hasło chroniące konto. Jak nietrudno się domyślić, wersja beta daleka jest od bezbłędności. Problemy mogą wystąpić z obsługą mikrofonów i dźwięku – należy wówczas doinstalować pakiet pavucontrol , co doda konfigurator PulseAudio Volume Control, którego możliwości zresztą większe niż domyślnego.
reklama
Z pełną listą nowości i problemów można zapoznać się na stronach Minta . Wersja beta ukazała się miesiąc przed wyznaczonym wcześniej terminem, co napawa entuzjazmem co do tempa prac nad tym, nie oszukujmy się, pobocznym przedsięwzięciem. Twórcy jednak nie podzieli się jak dotąd informacjami o dacie premiery wydania stabilnego.

Nowy Linux Mint w wariancie bazującym na Debianie już dostępny w wersji beta

...

Postepy ciesza!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Czw 16:43, 02 Sie 2018    Temat postu:

Lubuntu nie chce być dłużej systemem dla starych komputerów

Systemy typu Linux można podzielić na wiele sposobów. Najczęściej spotyka się jednak skategoryzowanie od najlżejszych do tych bardziej zaawansowanych. Jednym z najpopularniejszych, niezbyt wymagających systemów jest Lubuntu, czyli oficjalna wersja Ubuntu ze środowiskiem LXDE. To sprawiało, że OS ten był idealny dla starszych komputerów, co do tej pory było głównym celem deweloperów. To się jednak zmieni.
Lubuntu to jeden z najpopularniejszych, lekkich Linuksów. Niewielkie wymagania minimalne oraz świetna optymalizacja środowiska sprawiała, że system ten działał dobrze nawet na bardzo starych komputerach. Ba! Twórcy reklamowali swój produkt jako idealny dla starych PeCetów.
W tym roku Lubuntu przeszło sporo zmian. Przede wszystkim porzucono domyślne środowisko graficzne na rzecz LXQt, które można opisać jako znacznie unowocześnione LXDE. Teraz natomiast twórcy porzucają politykę reklamowania tego OS-a jako idealnego dla starych komputerów.
Deweloperzy tłumaczą, że ciągłe wspieranie bardzo starych urządzeń staje się trudne. Zaznaczają również, że definicja starych komputerów ostatnio nieco się zmieniła, bowiem aktualnie dziesięcioletnia maszyna będzie dobrze współpracowała z większością systemów typu Linux, nie tylko z Lubuntu.
Pulpit w systemie Lubuntu 18.04
Lubuntu team tłumaczy jednak, że system pozostanie lekki i szybki, dzięki czemu powinien dobrze działać nawet na starszym sprzęcie. Mimo to, deweloperzy nie chcą się ograniczać w dodawaniu nowych technologii tylko dlatego, aby wszystko współpracowało ze starymi komputerami. Lubuntu od teraz ma być nowoczesnym systemem, bazującym na bibliotekach Qt, co pozwoli na wykorzystanie go w wielu miejscach.
Ruch Lubuntu jest bardzo ważny w świecie Linuksa, bowiem inne dystrybucje mogą powtórzyć tę decyzję. Przyznam, że po cichu na to liczę. Dlaczego? Otóż kilka dni temu doświadczyłem braku wsparcia dla nowszych technologii na jednym z systemów, a dokładnie na Peppermint OS. Jak się okazało, dystrybucja ta nie wsprowadziła wsparcia dla ekranów HiDPI (wyświetlacz w moich laptopie ma 12,3 cala i rozdzielczość 2K), przez co wszystkie elementy na monitorze są bardzo małe, a co za tym idzie – nie mogę korzystać z tego OS-a.

..

Brawo! Prosty szybki system dla przecietnego uzytkownika to jest to! W koncu dla przegladarek gier i jakichs notatnikow czy pdfow nie trzeba supermachiny.


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Sob 11:34, 04 Sie 2018    Temat postu:

Ubuntu 18.04.1 LTS z numerkiem 1, co oznacza, że można bez obaw już ten system zainstalować, zostało załatane wiele błędów. Jeśli ktoś nie chciał na początku pobierać systemu, ponieważ czekał na poprawki i łatki teraz spokojnie może.

Ubuntu 18.04.1 czyli wersja połatana już można pobierać

...

Znakomicie.



Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Pią 9:47, 10 Sie 2018    Temat postu:

LibreOffice 6.1 dostępny! Darmowa alternatywa dla MS Office
09.08.2018 12:15, dodał: Arfałek Ocena: Jeśli nie
Darmowy pakiet biurowy LibreOffice to doskonała alternatywa dla MS Office. Bezpłatny pakiet biurowy w najnowszej odsłonie 6.1 jest już dostępny. Pobierz LibreOffice 6.1 za darmo i ciesz się jego nowymi usprawnieniami.
Jeżeli zastanawiacie się czy wydawać kilkaset złotych na pakiet biurowy Microsoft Office zainteresujcie się darmowymi alternatywami. Posiadają niemal wszystkie opcje, w które wyposażone są programy płatne. Niegdyś triumfy święciło narzędzie Open Office, którego rozwój niestety z różnych przyczyn został zawieszony. Na szczęście w jego miejsce pojawił się pakiet Libre Office, który doczekał się aktualizacji do wersji 6.1!
W tym tygodniu udostępniono darmowy pakiet biurowy LibreOffice w wersji 6.1, który jest znacząco usprawnioną wersją udostępnionego w lutym LibreOffice 6.0. W nowej edycji oprogramowania usprawniono wszystkie bolączki wersji 6.0.
LibreOffice 6.1 - darmowa alternatywa dla MS Office
W skład pakietu LibreOffice 6.1 wchodzą dokładnie te same programy, które znaleźć możecie w płatnym odpowiedniku Microsoftu. Jest więc edytor tekstu (Writer), edytor arkuszy kalkulacyjnych (Calc), program do tworzenia prezentacji i kilka innych, rzadziej używanych aplikacji.
LibreOffice pozwala m.in. eksportować dokumenty tekstowe do popularnego formatu ePUB, obsługiwanego przez czytniki e-booków. Nie zabrakło nowych stylów tabel we Writerze, kilku nowych praktycznych formuł w Calcu oraz odczuwalnego przyspieszenia prędkości działania poszczególnych aplikacji.
Twórcy poprawili silnik wszystkich programów i usprawnili czas konwertowania dokumentów .ODT (format tekstowy OpenOffice) oraz xHTML. Arkusz kalkulacyjny Calc umożliwia teraz także jeszcze wygodniejsze wklejanie grafik.

...

Znakomicie!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Pon 9:51, 13 Sie 2018    Temat postu:

Jądro Linuksa 4.18 jest teraz oficjalnie dostępne

Jądro Linux 4.18 Oficjalnie Wydane

...

Kolejne poprawki dodane.



Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
BRMTvonUngern
Administrator



Dołączył: 31 Lip 2007
Posty: 133577
Przeczytał: 66 tematów

Ostrzeżeń: 0/5

PostWysłany: Pon 21:43, 13 Sie 2018    Temat postu:

PAWEŁ POBUDEJSKI
11:15, 13-08-2018
KOD ŹRÓDŁOWY TESLI BĘDZIE DOSTĘPNY DLA KAŻDEGO – ELON MUSK ZDECYDOWAŁ SIĘ NA OTWARTE OPROGRAMOWANIE
@baweu
Kategorie Moto Nowości Oprogramowanie
Powiązane tematy Elon Musk open-source Tesla
Twórcy oprogramowania przyjmują podczas jego tworzenia różne taktyki. Jedni chcą, żeby kod źródłowy ich systemu był dostępny dla każdego, inni wolą, żeby nikt niepowołany nie maczał palców w ich projekcie. Elon Musk uznał, że wybiera pierwszą opcję i zapowiedział, że kod źródłowy oprogramowania Tesli zyska wkrótce status open-source .
Prawdopodobnie zgodzicie się ze mną, że jednym z największych zagrożeń oprogramowania w autonomicznych samochodach jest błąd w kodzie źródłowym. Czujniki i ich prawidłowe działanie to jedno, ale ich zaprogramowanie wydaje się być kwestią, która jest dla nas trudniejsza, czego dowodem może być chociażby
wypadek autonomicznego Ubera . Niedopracowanie kodu może wiązać się również z lukami bezpieczeństwa, które mogą posłużyć do niecnych celów. Jedną z taktyk zapobiegania tego typu zagrożeniom, jest udostępnienie kodu źródłowego – oprogramowanie open-source może być wtedy sprawdzane przez wszystkie osoby z całego świata i szansa na wykrycie luk zwiększa się wielokrotnie. Właśnie ją wybrał Elon Musk, który zapowiedział udostępnienie oprogramowania odpowiedzialnego za bezpieczną pracę Tesli.
Elon Musk
@elonmusk
Great Q&A @defcon last night. Thanks for helping make Tesla & SpaceX more secure! Planning to open-source Tesla vehicle security software for free use by other car makers. Extremely important to a safe self-driving future for all.
20:42 - 11 sie 2018
23 tys. Ludzie o tym mówią: 4 192
Decyzja Elona Muska prawdopodobnie jest spowodowana również tym, że oprogramowanie Tesli jest w dużej mierze oparte na Linuksie, który przecież wręcz charakteryzuje się byciem open-source . Jednak bez względu na przesłanki marketingowe trzeba przyznać, że taki ruch może przynieść pozytywny efekt.
Tesla gromadzi wokół siebie całą rzeszę fanów, podobnie zresztą jak Elon Musk, który stał się swego rodzaju technologicznym celebrytą. Oznacza to, że w internecie spokojnie znajdą się osoby chętne do przejrzenia kodu źródłowego oprogramowania autonomicznych samochodów, co nierzadko może wiązać się ze zgłoszeniem zastrzeżeń lub sugestii, które pozytywnie wpłyną na kolejną wersję systemu. Zastanawiam się tylko, czy w tym wszystkim nie ma drugiego dna. Czy udostępnienie kodu, pod kontrolą którego będzie pracować Tesla, nie sprawi, że łatwiejsza będzie modyfikacja otwartego oprogramowania i „przestawianie” go pod swoje własne potrzeby? Wiecie, coś w rodzaju zrootowania samochodu?
Pomijając już omówiony w tym wpisie aspekt skorych do pomocy użytkowników, znamienna jest też druga część decyzji Elona Muska. Udostępnienie oprogramowania w formie kodu open-source sprawia, że wszyscy producenci samochodów będą mogli zastosować w swoich produktach rozwiązania bezpieczeństwa, jakie zostaną zaimplementowane w Tesli.

...

Moje uznanie. Kto by sie spodziewal! Linux rosnie w sile!


Post został pochwalony 0 razy
Powrót do góry
Zobacz profil autora
Wyświetl posty z ostatnich:   
Napisz nowy temat   Odpowiedz do tematu    Forum Religia,Polityka,Gospodarka Strona Główna -> Wiedza i Nauka Wszystkie czasy w strefie EET (Europa)
Idź do strony 1, 2, 3, 4, 5, 6, 7  Następny
Strona 1 z 7

 
Skocz do:  
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach


fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB © 2001, 2005 phpBB Group
cbx v1.2 // Theme created by Sopel & Programy