Tags archives: mondo-linux

 

0

Creare un bridge con Network-Manager

Trattare le macchine virtuali in articoli della lunghezza di due pagine stampate è complicato. L'argomento è vasto e necessiterebbe di continui approfondimenti. Questo articolo non tratta specificatamente le macchine virtuali, in realtà, tratta le reti. Ma dopo aver configurato il bridge in questo modo sarà possibile “agganciargli” sia dispositivi virtuali, sia dispositivi reali a seconda delle proprie esigenze.
Come si è già detto, in primo luogo dobbiamo verificare che il nostro processore supporti la virtualizzazione, questo si può verificare cercando la voce “vmx” in /proc/cpuinfo per i processori Intel e “svm” in quelli basati su AMD.
Il modulo che deve essere caricato dal kernel si chiama “kvm”, c'è un secondo modulo che si chiama "kvm_intel" o "kvm_amd" a seconda del proprio processore. La maggioranza delle distribuzioni carica questi moduli all'avvio o automaticamente.
Per l'utilizzo di questo software è necessario avere i privilegi di root o un utente sudo, è possibile effettuare configurazioni con privilegi inferiori, ma questo va oltre lo scopo del nostro articolo.

Per l'installazione useremo una Fedora 25, in questo articolo installiamo solamente il software necessario, la configurazione delle macchine virtuali verrà trattata in altri articoli. Quindi:

dnf install qemu-kvm libvirt virt-install bridge-utils
systemctl start libvirtd
systemctl enable libvirtd

Adesso andiamo a creare il bridge, useremo nmcli l'interfaccia a linea di comando di network-manager:

# aggiungiamo il bridge
nmcli c add type bridge autoconnect yes con-name br0 ifname br0

significato delle opzioni (man nmcli e man nm-settings):
  • c, con, connection: network-manager salva le configurazioni di rete come “connection”. Le “connection” descrivono come creare o connettersi ad una rete.
  • add: crea una nuova connessione utilizzando le proprietà specificate.
  • type bridge: specifica il tipo di connessione
  • autoconnect yes: la connessione deve essere effettuata automaticamente appena la risorsa diventa disponibile.
  • con-name br0: nome della nuova connessione
  • if-name br0: il nome dell'interfaccia di rete

# impostiamo l'indirizzo IP
nmcli c mod br0 ip4 192.168.10.10/24 ipv4.method manual

significato delle opzioni:
  • mod, modify: aggiunge, modifica o rimuove proprietà nel profilo della connessione. La proprietà è specificata subito dopo, nel caso specifico, br0.
  • ip4, ipv4.addresses: array di indirizzi di rete.
  • method: l'indirizzo viene impostato manualmente.

# impostiamo il gateway
nmcli c mod br0 gw4 192.168.10.1

significato delle opzioni:
  • gw4, ipv4.gateway: gateway

# impostiamo il DNS:
nmcli c mod br0 ipv4.dns 192.168.10.1

significato delle opzioni:
  • ipv4.dns: dns

# cancelliamo le impostazioni attuali della scheda di rete (ho scelto eth0)
nmcli c del eth0

significato delle opzioni:
  • del, delete: cancella una connessione configurata

# aggiungiamo l'interfaccia come membro del bridge
nmcli c add type bridge-slave autoconnect yes con-name eth0 ifname eth0 master br0

significato delle opzioni:
  • bridge-slave: si aggancia al bridge
  • master: nome del dispositivo master

effettuate un reboot e verificate che il bridge sia operativo lanciando “ip addr”.

Network-Manager è un software complesso e di livello molto alto. Ha una montagna di opzioni e quando si comincia a comprenderlo diventa come un coltellino svizzero. Difficile farne a meno.
Con questo articolo spero di aver risposto alla domanda di jboss, se ho dimenticato qualcosa scrivetelo nei commenti diventerà uno spunto per il prossimo articolo.
Non pretendo di essere completo ed esaustivo, anzi, preferisco dimenticare qualcosa e lasciare che la mente di chi legge cominci a lavorare per cercare la soluzione.

 

0

Rilasciato Skype 5.4 for Linux Beta: Arrivano le video chiamate di gruppo


Il team di Microsoft ha annunciato il rilascio della nuova Beta di Skype for Linux, la nuova versione del suo client di messaggistica e audio/video chiamate per sistemi operativi Linux.
La novità principale di Skype 5.4 for Linux Beta è l'arrivo del supporto (attualmente sperimentale) alle video chiamate di gruppo. Ma vediamo le principali novità:

  • Abilitato il supporto alle video chiamate di gruppo
  • Aggiornato a Electron 1.7.4 che migliora le prestazioni e la sicurezza
  • Correzione delle key dei repository per gli aggiornamenti di Skype
  • Correzioni di bug e miglioramenti

È possibile scaricare Skype per Linux 5.4 Beta all'indirizzo  www.skype.com/download

 

0

Un unico software center può portare Linux al successo?


Vi ricordate quando qualche settimana fa vi chiesi se fosse possibile avere un a sola distribuzione?
Qualche giorno fa Jono Bacon, ex dipendente Canonical, ha scritto un articolo intitolato
Consolidating the Linux Desktop App Story: An Idea all’interno del quale si auspica l’aggiunta nel core delle distribuzioni GNU/Linux di un solo software center. Ha identificato gli elementi di partenza in Wayland, GNOME Software per una nuova idea di software center centralizzato, multidistribuzione, multifilosofico, basato su Flatpack.

Free/no free software center

Un unico repository di app che verranno filtrate per Desktop Environment, per free / non-free software aperto anche ai pagamenti.

Insomma un idea che fa pensare ad un mega centro per le applicazioni, in modo da rendere semplice all’utente cercare applicazioni, ma soprattutto invogliare i developer a sviluppare le applicazioni in uno store che si affaccia a tutte le distribuzioni, con statistiche quindi rivolte ad una userbase decisamente più allettante rispetto all’utenza di una singola distribuzione.

La scelta di Bacon su GNOME Software è comprensibile: GNOME, che piaccia o meno è il DE di riferimento con un pur ottimo KDE, di conseguenza propone Wayland, ormai considerato il successore di X con Mir sullo sfondo, non c'è quindi bisogno di reinventare qualcosa che già esiste a livello tecnico.

Spazio alla vostra opinione

Questa proposta può avere successo e di conseguenza rendere al panorama IT Linux una realtà meno frammentata di ora e più appetibile per i produttori e i grandi team? Vi auspicate un futuro simile oppure no?
Come sempre lo spazio per i commenti è tutto vostro e delle vostre opinioni.

 

0

Virtual Machines


Quando ero ragazzo, se volevo studiare un sistema operativo, dovevo installarlo nel computer e probabilmente distruggere tutti i miei dati finché non capivo come funzionava.
Ricordo una legge di Murphy che diceva: “La preparazione tecnica di un sistemista è direttamente proporzionale ai danni subiti dal suo sistema”.
Oggi per fortuna è possibile simulare praticamente qualunque cosa.
Per esempio, puoi creare quattro macchine virtuali in un computer, quattro in un altro e farle comunicare tra loro, simulando uno scambio di dati tra due data-center.
Questi sistemi ormai sono talmente affidabili, che l'unica differenza apprezzabile rispetto ad una macchina reale, è nelle prestazioni. Non è un caso che Cloud e Cluster ormai sono strettamente connessi con le virtualizzazioni e le containerizzazioni.
Per quanto riguarda le implementazioni, esistono molte soluzioni e la maggioranza possono essere usate a livello professionale. Io ne ho installate diverse, ma la mia preferita, quando devo studiare o testare qualcosa, è KVM (Kernel-based Virtual Machine). KVM, è un'infrastruttura che si innesta nel kernel di Linux e permette di implementare la virtualizzazione da parte di altri software.
Per ottenere questo risultato sfrutta Intel VT (Intel Virtualization Technology) o AMD-V (AMD Virtualization).
KVM ha, in diversi casi, anche il supporto alla paravirtualizzazione, che non è una vera e propria virtualizzazione, ma è un sistema di condivisione dell'hardware gestito dal kernel ed è molto usato ad esempio per le schede di rete, migliorando le prestazioni del sistema virtualizzato.
Per contro, il crash di un dispositivo paravirtualizzato in una macchina virtuale può provocare crash anche nelle altre. Per implementare questo tipo di soluzione il kernel ospitante deve essere modificato, da qui la necessità di un'infrastruttura a livello kernel.
Naturalmente, non esiste solo KVM, esistono anche altre soluzioni e tra le più famose ci sono: LXC, OpenVZ, Xen. Queste seguono gli stessi principi, per poi dividersi nei dettagli e nelle implementazioni, a volte per ragioni storiche a volte per esigenze e obiettivi diversi.
Come dicevo, questa infrastruttura si trova a livello del kernel e per usarla bisogna “mandare qualcuno a parlarci”. Ossia ci vuole un software specifico, e di solito quando ci vuole un software ci vogliono anche delle librerie. Sto parlando di Libvirt.
Esistendo diverse implementazioni a livello kernel, esistono anche specifiche chiamate di sistema per ogni implementazione.
I programmatori si troverebbero quindi, costretti ad imparare ogni chiamata di KVM o di OpenVZ, o di qualunque altra implementazione. Libvirt risolve questo problema unificando queste chiamate e creando astrazione. Il programmatore può in questo modo disinteressarsi della specifica implementazione, concentrandosi sul suo progetto.
Libvirt è composta di un'API (Advanced Programming Interface), un daemon e un tool di management, così come dei wrapper, che permettono di comunicare con la libreria attraverso linguaggi ad alto livello come Python, Perl, Ocaml, Ruby, Java, Javacript (via Node.js) e PHP.
I tool di management più famosi sono virsh (a linea di comando) e virtual machine manager (grafico).
Veniamo all'ultimo pezzo del nostro puzzle: abbiamo bisogno di un componente software che attraverso la libreria libvirt vada a parlare per nostro conto con KVM; questo pezzo si chiama hypervisor e si trova tra il tool di management e KVM.
Ossia: noi parliamo col tool di management, il tool parla con l'hypervisor e l'hypervisor attraverso le libreria comunica con KVM; il nostro stack è così completo.
Nomi di hypervisor comunemente utilizzati sono: LXC, OpenVZ, QEMU, Xen, Virtualbox, VMWare. Quello che uso io, per i miei test nel portatile è QEMU.
Dopo tutta questa prosopopea, possiamo finalmente fare un elenco delle funzionalità di KVM:
  • Over-committing: il sistema può allocare più CPU virtualizzate di quelle realmente esistenti.
  • Thin provisioning: permette di allocare lo spazio in modo flessibile per ogni virtual machine.
  • Disk I/O throttling: permette di impostare un limite alle richieste di I/O del disco mandate dalle VM alla macchina ospitante.
  • Virtual CPU hot add capability: permette di aumentare la potenza del processore    “a caldo” cioè mentre la virtual machine è in funzione.
  • Automatic NUMA balancing: aumenta le prestazioni delle applicazioni che girano su sistemi di tipo NUMA.
Per chi se lo stesse chiedendo, non stiamo parlando di Mauro Numa, campione italiano di fioretto, né di Shozo Numa, famoso scrittore giapponese di fantascienza autore del libro Kachikujin yapū, da cui è stato tratto il manga “Yapoo – Il bestiame umano”, racconto con sfumature sadomaso del quale immagino l'umanità non potesse fare a meno. No! Parliamo della “Non-Uniform Access Memory”, architettura di memoria sviluppata per sistemi multiprocessore studiata appositamente per velocizzare l'apporto di dati ai processori da parte delle memorie.
Una curiosità: questa tecnologia venne sviluppata in Italia negli anni '80, quando ci si occupava ancora di informatica e in Italia si trovavano tra i computer più veloci del pianeta. So che fa caldo, ma non divaghiamo!
Per installare tutto questo popò di roba dovete innanzitutto verificare che il vostro processore abbia “competenze virtuali”, cioè le tecnologie di virtualizzazione di cui sopra:
per sistemi intel: grep --color 'vmx' /proc/cpuinfo, mentre per sistemi amd: grep –color 'svm' /proc/cpuinfo
Se non appare niente, potrebbe darsi che queste estensioni siano disabilitate nel bios o che il vostro processore non supporti la virtualizzazione. lsmod | grep kvm vi informa se il modulo kvm è stato caricato. Deve mostrare kvm, kvm_intel o kvm_amd.
I nomi dei pacchetti cambiano a seconda della distribuzione, su internet è abbastanza facile trovare l'elenco, in generale dovete installare quelli concernenti virt-manager, libvirt, qemu e avviare il daemon libvirtd se non è già attivo.
Per una spiegazione dettagliata su questi software è necessario un articolo specifico. Magari la prossima volta.

 

0

Ecco Fedora 26!


Il team di Fedora ha annunciato l'immediata disponibilità di Fedora 26 e di tutte le spin ufficiali.
Fedora 26 porta con se migliaia di miglioramenti derivati dall'aggiornamento dei vari software presenti nei repository della distro, inclusi i nuovi strumenti di sviluppo come GCC 7, Golang 1.8 e Python 3.6. A muovere il tutto troviamo il Kernel Linux 4.11 supportato da Mesa 17.1.4.
Aggiunto un nuovo strumento di partizionamento in Anaconda (l'installar grafico di Fedora) che sarà di sicuro apprezzato dagli appassionati e dai sysadmin.
Aggiornato anche il gestore di pacchetti DNF alla versione 2.5 con tante nuove funzionalità che potete scoprire recandovi a questo indirizzo.

I desktop environment
L'edizione principale di Fedora 26 porta GNOME 3.24 "Portland", l'ultima versione stabile del desktop environment di riferimento nel mondo GNU/Linux.
Se siete interessati ad ambienti desktop alternativi potete scaricare una delle Spin di Fedora 26. A questo giro, oltre alle consuete edizioni con KDE, Xfce, MATE-Compiz, Cinnamon ed LXDE troviamo la nuova Spin con LXQt.

Trovate le note di rilascio complete di Fedora 26 a questo indirizzo.

I link per scaricare Fedora 26
Ecco i link per scaricare Fedora 26 e le sue Spin
Come aggiornare
Se provenite da Fedora 25 e volete aggiornare la vostra distro a Fedora 26 seguite le istruzioni pubblicate da Fedora Magazine.

 

0

Rilasciato Linux Mint 18.2 “Sonya” in tutte le sue edizioni con Cinnamon, MATE, Xfce e KDE

Linux Mint 18.2 "Sonya" Cinnamon Edition

Clement Lefebvre, il patron di Linux Mint, ha annunciato il rilascio di Linux Mint 18.2 nome in codice Sonya in tutte le sue edizioni con Cinnamon, MATE, Xfce e KDE.

Ricordo a tutti che Linux Mint 18.2 è una edizione a supporto estesa, basata su Ubuntu 16.04 LTS e che sarà supportata fino al 2021. 

Fra le novità di Linux Mint 18.2 troviamo Cinnamon 3.4, MATE 1.18 (costruito sulle GTK3), Xfce 4.12 con xfwm4 4.13 (che migliora il supporto al VSync per non avere problemi di tearing) e KDE Plasma 5.8. Oltre a questo troviamo le versioni aggiornate delle X-Apps e dell'Update Manager.

Per maggiori informazioni e per i link al download delle ISO aggiornate vi rimando alle pagine ufficiali di Linux Mint.

 

0

GNU/Linux Init System


Fino al 2006 il sistema di init delle distribuzioni di Linux aderiva essenzialmente a 2 standard, c'erano le distribuzioni che usavano System V e quelle che usavano il BSD-Style.
Entrambi si appoggiavano al programma "init" e un sistema di script scritti in shell. Non erano molto distanti l'uno dall'altro e chiunque conoscesse un po' di shell scripting era in grado di comprendere velocemente come era costruito il boot del sistema.
Nel 2006, Ubuntu e tutte le sue derivate iniziarono ad utilizzare un nuovo sistema: Upstart, che venne anche adottato successivamente da RedHat e Fedora.
Nel 2010 venne rilasciata la prima release di un altro sistema di init inizialmente progettato da dipendenti di Redhat: systemd. Durante il 2015 tutte le maggiori distribuzioni Linux passarono a systemd.
L'approccio rivoluzionario di systemd ha da subito creato dibattito e opinioni controverse, perché rompe alcune importanti tradizioni Unix, tra le quali il principio di semplicitá, cioé che un software deve fare una sola cosa e farla bene. Alcune distribuzioni, anche se contrarie, sono state obbligate ad adottarlo de-facto, per via di alcune dipendenze legate a GNOME.

Ma facciamo una carrellata dei sistemi di init esistenti:

Sysvinit
Il system V nasce nel 1983! Si, é piú vecchio di molti di voi che leggete!
Venne sviluppato da una cordata di aziende tra cui IBM, HP, Solaris e Illumos Distributions. Non ho fatto una ricerca approfondita, ma attualmente viene utilizzato da Devuan, PCLinuxOS e LFS. Diciamo che siamo alla fine del suo percorso.

Systemd
Come dicevo, oggi é il piú utilizzato. Lo usano Fedora, Redhat, Debian, Ubuntu, OpenSuse.

BSD-Style
Credo che lo usino solo CRUX e Slackware.

OpenRC
Usato essenzialmente da Gentoo e derivate, ovviamente la natura di queste distribuzioni permette anche di usare uno qualunque degli altri sistemi di init.

La polemica
Systemd non é un semplice init, fa molte cose che nella filosofia Unix sono compito di altri software.
Piú che ad un classico init system somiglia ad svchost.exe di Windows.
Gestisce il power management, i punti di mount, cron, criptazione del disco, socket API/inetd, syslog, la configurazione della rete, gestione del login, readahead, GPT partition discovery, registrazione dei container, hostname, locale, time management, e altre cose.

La motivazione di molti esperti che criticano questo software é semplicemente che se viene trovato un bug, anche minore, in uno qualunque dei moduli che systemd gestisce, é (in teoria) possibile buttare giú l'intero sistema di init del sistema operativo.
In aggiunta, un sacco di upgrade software che una volta non richiedevano il reboot, a causa di queste invasioni di campo oggi lo richiedono. E' monolitico e pesantemente orientato al desktop. Questo lo rende una scelta poco saggia per molti utilizzi di Linux.
A dispetto di tutte queste critiche systemd é stato adottato da tutte le distribuzioni piú importanti e GNOME lo richiede obbligatoriamente. Inutile dire che chi lavora in questo campo lo deve studiare e ci deve avere a che fare.

Riguardo a systemd Linus Torvalds ha dichiarato che non ha opinioni precise. Ha avuto qualche problema con gli sviluppatori riguardo ad alcune compatibilitá e bug, in quanto erano un po' altezzosi, e pensa che alcune scelte sono insensate (la sua esatta parola: insane), come ad esempio i log binari, ma questi sono dettagli, non grandi problemi.

Theodore T'so uno sviluppatore del kernel di Linux e ingegnere Google sostiene che la cosa peggiore é che stanno cercando di risolvere problemi reali di alcuni usi specifici, e che questo va a discapito di assunti piú generali fatti in altre parti del sistema.
Inoltre, il passaggio a questo sistema é stato fatto troppo velocemente e loro non considerano necessariamente una loro responsabilitá mettere a posto il resto dell'ecosistema Linux.
T'so mette, inoltre, in evidenza alcune atteggiamenti che ha notato anche in GNOME 3. Cioé che loro si interessano solamente di una piccola parte degli utenti desktop Linux e hanno abbandonato alcuni modi di interagire col desktop in favore dei touchscreen per attrarre un pubblico meno specializzato, cioé, se non ti trovi nel loro target diventi un utente di serie B.
Per contro, tutti ammettono che system v é ormai datato, ma nessuno sembra volersi assumere la responsabilitá di scrivere un nuovo init. Quindi, almeno ad oggi, sembrano non esserci alternative.
Quello che sembra trasparire tra le righe é che systemd sia un tentativo di uniformare con la forza l'ecosistema Linux e che questo vada ad alienare e marginalizzare una parte della comunitá open-source.
Debian per spiegare la scelta di systemd ha prodotto un documento dove descrive tutti i vantaggi che il sistema ottiene con il suo passaggio. Il documento é lungo, ma tra i vantaggi c'é una maggiore velocitá nel boot, una maggiore semplicitá nella gestione dei file di boot dei pacchetti, che prima dovevano essere scritti dai manutentori e oggi sono uguali per tutte le distribuzioni che adottano systemd.
Un migliore sistema di shutdown dei processi, un sistema strutturato dei log, un migliorato sistema dei virtual TTY. Un sistema centralizzato di startup e monitoring dei processi, piú funzionale nei sistemi di high availability. Un sistema unificato per la gestione di molte impostazioni di sistema come timedatectl, hostnamectl, loginctl etc. etc.
un sistema di API che permette alle applicazioni di interfacciarsi con systemd. Attualmente queste API vengono usate solo da GNOME, ma puó essere usato da qualunque linguaggio di programmazione e non si esclude che altri desktop inizino ad usarle. Puó essere lanciato indifferentemente in macchine virtuali e container, salta semplicemente le parti di configurazione incompatibili. Ha un supporto watchdog completo. Puó essere utilizzato all'interno di initramfs. E' facile effettuarne il debug e sta cercando di muovere nella direzione di un sistema configuration-less (/etc/ vuoto).

Personalmente credo che la polemica non sia ancora finita e non é detto che systemd conservi il vantaggio che ha oggi, anche se ormai si trova praticamente su tutte le distribuzioni. Se non nasce un progetto alternativo é molto probabile che le distribuzioni che sono ancora su system v, siano destinate a soccombere. La mia impressione é che piaccia al mondo commerciale ma non a quello tecnico. Io stesso non ho ancora escluso di passare a distribuzioni che non lo usano.

L'articolo finirebbe qui. Ma ho trovato in un documento la cronistoria, la metto in coda perché credo sia interessante.

La controversia
Il progetto di systemd ha provato un acceso dibattito nella comunitá del free software. I critici sostengono che systemd é eccessivamente complesso e soffre di un continuo scivolamento verso nuove funzionalitá, e la sua architettura viola i principi progettuali di un sistema unix-like. C'é anche la preoccupazione che stia formando un sistema di inter-dipendenze togliendo ai manutentori delle distribuzioni libertá di scelta, visto che l'adozione di alcuni software user-space obbliga la sua installazione.

Nel maggio 2011 Fedora é stata la prima importante distribuzione Linux ad abilitare systemd per default.

Nel 2012, in una intervista, Patrick Volkerding, leader di Slackware ha espresso riserver sull'architettura di systemd, affermando che ritiene che il suo progetto sia contrario alla filosofia Unix di utilitá interconnesse con precise e definite funzionalitá. Volkerding non ha escluso il suo supporto, ma ad oggi Slackware non supporta systemd.

Nel gennaio 2013, Lennart Poettering (systemd) ha creato un documento chiamato the The Biggest Myths dove tenta di calmare le preoccupazioni riguardo a systemd.

Tra l'ottobre 2013 e Febbraio 2014 un lungo dibattito lacera la comunitá Debian, la decisione culmina nella scelta di systemd per debian 8 Jessie. Il dibattito viene largamente pubblicizzato e continua anche dopo la decisione. Dopo questa decisione, nel febbraio, Mark Shuttleworth (Ubuntu) seguirá Debian in questa decisione, abbandonando Upstart, nonostante i suoi commenti dell'ottobre 2013 dove dichiarava che era difficile giustificare l'atteggiamento estremamente invasivo di systemd.

Nel marzo 2014, Eric Raymond dichiara che gli obiettivi di systemd provocheranno una crescita sproporzionata delle sue dimensioni e un continuo arrampicarsi verso le funzionalitá di altri software. Nell'aprile 2014 Linus Torvalds esprimerá delle riserve riguardo all'atteggiamento di Kay Sievers, uno sviluppatore chiave di systemd nei confronti di  utenti e bug report riguardo a modifiche spedite da lui al kernel Linux. Alla fine dell'Aprile 2014 viene lanciata una campagna di boicottaggio di systemd con un sito web che ne spiega le motivazioni.

Nell'agosto 2014, in un articolo pubblicato su InfoWorld, Paul Venezia parlando della controversia riguardo systemd attribuisce la controversia ad un problema di ego da parte dei programmatori di systemd che pensano di non poter sbagliare. L'articolo paragona systemd a svchost.exe un componente critico del sistema Windows.

Nel novembre 2014, alcuni membri di Debian e componenti del comitato tecnico: Joey Hess, Russ Allbery, Ian Jackson, e il manuntentore del pacchetto systemd Tollef Fog Heen lasciano le loro posizioni. Tutti e quattro giustificano la loro scelta parlando di un eccessivo stress legato alla disputa sull'integrazione di systemd in Debian, che ha reso la manutenzione dei pacchetti virtualmente impossibile.

Nel dicembre 2014, nasce un fork di Debian chiamato Devuan, da parte di un gruppo che si autonomina "Veteran Unix Admins". La loro intenzione é fornire una variante di Debian non basata su systemd.

Nell'agosto 2015, systemd rilascia una shell di login, chiamabile via machinectl shell.

Nell'ottobre 2015, viene pubblicato un articolo intitolato "Deficienze strutturali e semantiche nell'architettura systemd per la gestione dei servizi nel mondo reale". L'articolo critica systemd in molte aree, compreso il suo progetto come un sistema ad oggetti con troppi livelli opachi che lo rendono incline ad essere esposto a casi di fallimento, un modello di esecuzione difficile da predire, un'ordine di boot non deterministico, lo stato implicito delle configurazioni dei file unit e la sua generale inadeguatezza nel fornire un'astrazione esterna uniforme per i tipi di unitá.

Riferimenti:
https://wiki.debian.org/Debate/initsystem/systemd
http://blog.erratasec.com/2015/08/about-systemd-controversy.html#.WVYZNico9hE
http://www.zdnet.com/article/linus-torvalds-and-others-on-linuxs-systemd/
http://0pointer.de/blog/projects/the-biggest-myths.html
http://without-systemd.org/wiki/index.php/Main_Page
https://chiefio.wordpress.com/2016/05/18/systemd-it-keeps-getting-worse/

 

0

Sicurezza su GNU/Linux: cosa ne pensate?


La sicurezza è un argomento caro a tante persone, specialmente in ambito informatico. Tra i tanti motivi per l’utilizzo di GNU/Linux molti utenti mettono la privacy davanti a tutto.

Il perché è facile da indovinare: Essendo il sistema open, posso sapere cosa fa la mia macchina in qualsiasi momento. E’ un utilizzo trasparente, se conosco cosa fa ogni singolo processo so anche quanto la mia privacy possa essere tutelata e mi sento più sicuro.

Ma è davvero così?

In realtà, per quanto open possa essere un os la possibilità di compromettere la nostra sicurezza è direttamente proporzionale all’attenzione che mettiamo noi nelle operazioni di tutti i giorni. Meno attenzione prestiamo durante il nostro uso del computer, meno la nostra privacy è al sicuro.

Perché si?

Perché ad esempio, il fatto che GNU/Linux chieda spesso la password di amministratore per le operazioni più importanti non mette al riparo da possibili errori, installazioni di pacchetti manipolati etc. Perché per alcuni l’aggiunta indiscriminata di PPA rappresenta una cosa da evitare.
Bisogna sempre capire perché la macchina richiede la nostra attenzione.

Ma poi, la privacy cos’é?

Un insieme di dati che vi descrivono personalmente, una serie di informazioni che rappresentano una parte di voi (cosa vi piace mangiare o che serie tv amate), i vostri documenti o semplicemente un diritto.

E voi, che rapporto avete con la vostra privacy su Linux?

Pensate di vivere in un’isola felice e poco frequentata da malintenzionati oppure pensate che a prescindere un utilizzo consapevole della vostra macchina sia una buona prassi a prescindere? Siete particolarmente affezionati alla vostra privacy o appartenete a quel gruppo di persone che risponde con: “Se vuoi la privacy informatica, spegni il pc”?
Che inizi la discussione!

 

0

Debian 9 Stretch


Leggendo la news di Marco Giannini sull’arrivo della nuova versione stable di Debian, mi sono accorto che il mio portatile stava passando da testing a stable. Quale occasione più ghiotta per parlare di quella che probabilmente è la più vecchia distribuzione di Linux ancora in vita?

Debian è, forse, la distribuzione più “forkata” in assoluto, 131 fork secondo distrowatch, quasi la metà delle distribuzioni che ci sono in giro. È “mamma” di tante distribuzioni di successo tra le quali Ubuntu e  Knoppix, “nonna” ovviamente, di tutte le “figlie” di Ubuntu come Mint ed Elementary OS, ad esempio.

Debian nasce il 16 agosto 1993, il nome è una composizione dei nomi Debora e Ian. Debora era in quel periodo fidanzata, moglie e poi ex-moglie del compianto Ian Murdock fondatore della nostra amata distribuzione. Ha influenzato profondamente il pensiero del mondo del software libero, Ian scrisse il “Debian Manifesto”, ma in questo percorso, incontriamo anche persone del calibro di Bruce Perence, che insieme a Ean Schuessler (che pare abbia proposto l’idea) scrisse il “Debian Social Contract”, complemento del Manifesto. Questo contratto Contiene le “Debian free software guidelines” che, sorpresa… sorpresa… forniranno la base per la creazione della “Open Source Definition”.
Non voglio appesantire l’articolo con i contenuti di questi documenti che potete facilmente trovare su internet, ma possiamo dire che Debian è stata ed è protagonista nel dibattito pubblico, filosofico e tecnico sul software libero.

La precisione con la quale Debian fornisce documenti sulla filosofia e le modalità di costruzione del sistema operativo fanno invidia ad Amazon, accanto ai documenti già citati, abbiamo anche la “Debian Constitution” e il “Debian Code of Conduct”. Nel ‘97 Bruce Perens fondò l’associazione “Software in The Public Interest” per ricevere donazioni e finanziare il progetto. Oggi quest’associazione oltre a finanziare Debian sostiene tra gli altri, Arch Linux, Drupal, ffmpeg, Fluxbox, freedesktop.org, GNUStep, Jenkins, Libreoffice, OpenWRT, PostgreSQL.

Ma veniamo al lato tecnico, Debian è una distribuzione a scopi generali, ha un solo kernel di default, che viene utilizzato su Desktop e Server, successivamente è possibile installare altri kernel che sono disponibili nel repository, o anche, ricompilarlo, se lo si ritiene opportuno. Una nota di colore: è possibile usare anche kernel FreeBSD ed esiste anche una versione sperimentale di Hurd.
Per quanto riguarda la manutenzione, le gui sono ridotte all’osso ed il grosso si fa da linea di comando, è chiaramente una distribuzione fatta per chi ha un minimo di esperienza o vuole imparare come si gestisce un sistema *nix.
Debian non offre assistenza commerciale, mette a disposizione la documentazione sul proprio sito, esiste anche un ottimo libro open che si chiama “Debian Administrator Handbook”. Ci sono anche un wiki, una mailing list, e un sito di tipo ask.

Debian ha una gestione delle versioni che ci permette di avere, a seconda delle nostre scelte, un S.O. estremamente stabile, moderatamente stabile, piacevolmente instabile.

La versione ufficiale è quella che viene definita “stable”. È più stabile, ma i pacchetti possono essere datati, riceve solo aggiornamenti di sicurezza. Normalmente viene rilasciata ogni due anni, ma la regola è che viene rilasciata solo se è pronta. È la versione consigliata per server e workstation. La “OldStable” viene supportata ancora per un anno dopo il rilascio della nuova stable e dopo viene archiviata.

Testing: è la futura stable, riceve aggiornamenti, quasi come una rolling-release, quando sta per uscire la versione stable va in “freeze” e si trasforma in stable.

Unstable: è la versione di sviluppo, i pacchetti sono aggiornati alla loro ultima versione e possono essere stabili o instabili, a seconda di come la loro casa madre prenda sul serio il rilascio del proprio software. Esistono distribuzioni rolling basate su questo ramo, come ad esempio Sidux.

Dal 2014, sull’onda delle scelte di Ubuntu, è nato il team Debian LTS che prende in mano il supporto della distribuzione dopo 3 anni e lo estende a 5 anni. Attualmente questo team ha il supporto di Wheezy che è esteso fino al 2018, fra un anno prenderà in mano Jessie che verrà supportata fino al 2020.

Per chi se lo fosse chiesto, i nomi delle versioni di Debian vengono dai personaggi del cartone animato Toy Story, che è il primo cartone animato sviluppato completamente in computer grafica. Toy Story, uscì nel ‘95. L’unico nome di versione che non cambia mai, è quello della versione unstable, Sid: il bimbo che nel cartone cerca di distruggere continuamente i giocattoli.

Il supporto hardware di Debian non è buono quanto quello di Ubuntu, perché per ragioni etiche mancano tutti di driver proprietari. Abilitando i repository contrib e non-free è possibile accedere a parte di questi, nel kernel ci sono comunque alcuni blob proprietari, che se tolti probabilmente bloccherebbero il funzionamento del S.O. in tutte le macchine moderne. Questo è un problema che prima o poi il mondo del software libero dovrà porsi.

Il Desktop di default di Debian è GNOME, ma è possibile installare praticamente tutti i desktop e window manager esistenti. Debian lascia l’estetica e la grafica così come è stata pensata dal produttore. Nel caso si desideri qualcosa di più carino si devono modificare manualmente le impostazioni e installare le icone e i font necessari. Naturalmente è possibile installare Debian anche senza nessuna grafica ottenendo un terminale a linea di comando.

Il sistema di gestione dei pacchetti di Debian è dpkg. Insieme a rpm dpkg è uno standard de-facto, l’estensione di questi pacchetti è .deb, esistono vari software che permettono di installarlo, i più famosi sono apt-get, apt, aptitude. Debian, con circa 50.000 pacchetti, ha il repository più vasto del pianeta. Supporta anche tantissime architetture, molte di queste non più commercialmente valide. La natura della sua comunità non legata a doppio filo con il mondo dell’economia le permette di supportare, dove qualcuno ne ravvisi la necessità, anche contesti che ormai sono rari, le architetture supportate sono Arm, Intel i386 e amd64, mips, PowerPC, s390x.

Debian è una delle distribuzioni più “etiche” tra quelle che ci sono in giro, ricordo che all’inizio veniva, da molti, definita estrema. In realtà il suo approccio di fronte al software proprietario è molto pragmatico. Per esempio, fornisce un repository apposito per il software non-free, sarebbe come se Apple o Microsoft fornissero la possibilità di installare software libero automaticamente, direttamente dal programma di installazione. Distribuzioni come, ad esempio, Fedora, non lo fanno. Questa scelta potrebbe essere letta come ipocrita, ma dal punto di vista tecnico, in particolare della sicurezza è importante, perché l’utente che installa software dal repository non-free non si deve porre domande sulla sicurezza del software che sta installando, mentre l’utente Fedora, se incauto, potrebbe compromettere la sicurezza del proprio sistema affidandosi a repository amatoriali.

 

0

Red Hat presenta la prima infrastruttura iperconvergente open source production-ready


Red Hat presenta la prima infrastruttura iperconvergente open source production-ready 

Red Hat introduce una piattaforma software-defined che integra storage e capacità di elaborazione per siti remoti e implementazioni edge 

Milano, 23 giugno 2017 – Red Hat, Inc. (NYSE: RHT), leader mondiale nella fornitura di soluzioni open source, presenta Red Hat Hyperconverged Infrastructure, la prima soluzione HCI (hyperconverged infrastructure) production-ready open source. Associando innovative tecnologie di storage e virtualizzazione con una piattaforma operativa stabile e solida, Red Hat Hyperconverged Infrastructure è pensata per permettere alle imprese di portare le capacità del datacenter in ambienti con spazio limitato, come gli uffici remoti e le sedi decentralizzate.

Le organizzazioni con attività distribuite, come nei mercati bancario, energia e retail, devono essere in grado di offrire alle filiali e agli uffici remoti gli stessi servizi disponibili nel datacenter. Tuttavia, questi luoghi possono essere caratterizzati da sfide in termini di spazio e capacità di raffreddamento limitati e assenza di personale tecnico onsite. Le aziende che si trovano in questa situazione necessitano di potenti servizi, integrati su un unico server in grado di fare scale out.

Red Hat Hyperconverged Infrastructure è pensata per affrontare queste sfide integrando storage e capacità di elaborazione in un unico server e rendendolo adatto per installazioni remote, branch office o edge. Questa infrastruttura consente alle imprese di implementare e gestire centralmente architetture distribuite, assicurando agli uffici remoti la stessa qualità e prestazioni senza richiedere il supporto di personale tecnico dedicato.

Red Hat Hyperconverged Infrastructure è l’unica offerta production-ready con uno stack open source completo, sviluppata, commercializzata e supportata da un unico vendor. Un approccio open source basato sulla community aiuta a evitare il lock in e permette di trarre vantaggio dall’innovazione che nasce nelle comunità aperte. Poiché l’infrastruttura e i componenti software-defined derivano dallo stesso vendor, l’obiettivo di Red Hat è quello di minimizzare il troubleshooting e i problemi legati al supporto.

“I nostri clienti desideravano una soluzione che soddisfacesse le loro esigenze infrastrutturali a livello aziendale – non solo per l’ufficio centrale – e le soluzioni proprietarie sembravano essere l’unica opzione per le installazioni remote e edge”, commenta Ranga Rangachari, vice president e general manager Storage in Red Hat. “Con Red Hat Hyperconverged Infrastructure i clienti possono effettuare il provisioning delle risorse compute e storage sui siti remoti per far girare istanze locali di applicazioni con la stessa efficacia delle operazioni in-office. Integrare la tecnologia di virtualizzazione e la piattaforma storage software-defined di Red Hat offre alle aziende procurement, implementazione e interoperabilità, permettendo loro in ultima istanza, di risparmiare tempo e denaro”.

“Il mercato dei sistemi integrati continua a crescere e il segmento delle infrastrutture convergenti ne sta prendendo una quota sempre maggiore”, aggiunge Terri McClure, senior analyst Enterprise Strategy Group. “Le installazioni negli uffici remoti e nelle filiali possono essere problematiche da un punto di vista IT e sono adatte alle soluzioni convergenti. Red Hat Hyperconverged Infrastructure rappresenta un inizio promettente in un momento interessante in cui un numero crescente di aziende è alla ricerca di soluzioni iperconvergenti che rispondano alle loro esigenze per i siti remoti e che rappresentino la base di future scelte software-defined”.

Red Hat Hyperconverged Infrastructure si avvale della nota piattaforma di virtualizzazione di Red Hat, così come di storage software-defined, per gestire in modo efficace un’infrastruttura storage e compute integrata su hardware o reti diversi. Per farlo, Red Hat Hyperconverged Infrastructure è stata progettata con una suite di componenti, integrati per fornire un’esperienza unificata dall’installazione alla gestione, tra cui:
  • Red Hat Virtualization – la nota piattaforma di virtualizzazione enterprise KVM (kernel-based Virtual Machine)
  • Red Hat Gluster Storage – storage software-defined altamente scalabile che può convergere sullo stesso hardware degli host Red Hat Virtualization, eliminando la necessità di infrastrutture di elaborazione aggiuntive e semplificando l’implementazione.
  • Red Hat Enterprise Linux – la nota piattaforma enterprise Linux che rappresenta una base solida e affidabile.
  • Ansible by Red Hat – implementazione e gestione basata sul framework di automazione IT open source semplice, potente e agentless che offre installazione e configurazione automatizzate da un punto centrale.
Disponibilità
Red Hat Hyperconverged Infrastructure è già disponibile.