Schlagwort-Archive: cloud computing

mein computer und ich – eine umgangslehre (23)

anleitung

die verlagerung vieler techniken und daten des computers ins internet und in die cloud ist problematisch, wenn man nach unkomplizierter hilfe sucht. denn viele handbücher, anleitungen und hilfe-funktionen werden nicht mehr auf der festplatte abgelegt, sondern sind mit dem netz gekoppelt. dabei ist es ganz gleich, ob es sich um fragestellung zur software oder zur hardware handelt.

ein kleines gedankenspiel: stellen sie sich vor, ihre soft- oder hardware hakt und rumpelt in die falsche richtung. nun rufen sie die jeweilige hilfefunktion auf. sie lässt sich noch aufrufen, aber die eigentlichen informationen sind nicht mehr auf ihrer festplatte zu finden, sondern es muss dafür eine verbindung zum internet hergestellt werden. das dumme bei diesem problem ist aber, dass wegen des rumpelns und hakens ihres computers, der internetzugang nicht mehr möglich ist. ab diesem moment finden sie keine ausreichenden und ausführlichen anleitungen zur fehlerbehebung mehr.

ähnlich kann es sich mit installationen verhalten. die anleitung für eine korrekte installation ist meist nur noch online abrufbar und eben nicht mehr in einem handbuch nachlesbar. doch manche installation benötigt die trennung vom internet. man kann aber auch noch einen schritt weiter gehen: manche suchfunktionen der hilfe-angebote finden bei eingabe der schwierigkeiten keinen anleitungen mehr, sondern irgendwelche unerquicklichen foren, die sich eher in diskursen über die richtige formulierung ergehen als in der lösung eines problems.

bei den anleitungen ergibt sich ein dritter aspekt: sie sind zum teil so schlecht formuliert, dass man sie einfach nicht versteht. zum glück gibt es für viele schwierigkeiten inzwischen von usern selbst gedrehte filmchen in blogs und foren. die sind oft hilfreicher als die auskünfte der produzenten von hard- und software.

man hat also nur zwei möglichkeiten: entweder verlässt man sich auf learning bei doing oder man hofft, dass nie der kontakt zum internet verloren geht und informiert sich noch zusätzlich in privaten foren und auf privaten homepages. das vorhandene angebot ist in vielen zusammenhängen zu gering und zu unklar. das absurde in diesem kontext ist aber, dass eine umfassende anleitung heute viel zu leichter mit querverweisen und brauchbaren suchfunktionen versehen und auf einer festplatte verankert werden kann.

doch die arbeit macht sich niemand mehr. beliebter bei den herstellerInnen ist es, die nutzerzahl auf den eigenen webseiten in die höhe zu treiben und die kontrolle über die installierten produkte nicht zu verlieren. dies scheint mir der einzige grund zu sein, weshalb viele informationen ins internet verschoben werden. an den speicherkapazitäten der pcs und der anderen digitalen geräte kann es nicht liegen.

web 2.0 und verlust

in der digitalen welt gibt es einen verlust, der schwer zu verschmerzen ist: daten! es geht dabei noch nicht einmal um die weitergabe der daten, sondern um den vollständigen verlust von produziertem, eingestelltem oder verlinktem. wer solch einen datenverlust schon einmal erlebt hat (menschen, die sich häufiger im netz bewegen kennen dieses ereignis) gewöhnt sich spätestens dann an, doppelte und dreifache sicherungen und backups einzubauen. große firmen trennen zudem ihre internen netze von den externen.

interessant dabei scheint mir, dass gern gesagt wird, im internet würde nichts verschwinden und ewig einsehbar sein, gleichzeitig wird aber kaum erfasst, wie viele daten auf nimmerwiedersehen in den tiefen des netzes und der festplatten oder smartphones verschwinden. besonders ärgerlich ist es für diejenigen, die eins zu eins, ihre daten im netz produzieren und auch dort ablegen. darum erscheint auch das cloud-computing weiterhin eine problematische angelegenheit zu sein.

man spiele nur einmal das szenario durch, dass auf externen festplatten produziert und abgespeichert wird. extern bedeutet in diesem zusammenhang, dass die speicher in einem anderen land liegen. da mag es noch so viele versicherungen zu datensicherheiten geben, wird eine verbindung gekappt oder wird schlagartig die gesetzeslage eine andere, sind die eigenen daten unerreichbar. darum lohnt sich auf jeden fall eine zusätzliche speicherung auf eigenen datenträgern. aber auch dies schützt nicht unbedingt vor datenverlust. denn die halbwertszeit von datenträgern ist auch nicht extrem lang.

schon seit längerer zeit gibt es diskussionen, ob nicht papier länger haltbar ist als cds, dvds oder festplatten. papier ist zwar für etliche umwelteinflüsse anfällig und auch vieles geschriebene und gedruckte ist verschwunden und verblichen, doch etliches konnte über jahrhunderte erhalten bleiben. bei digitalen daten kommen neben den umwelteinflüssen noch zusätzliche störfaktoren hinzu (alles was im weiteren sinne mit elektronik zu tun hat). es ist zwar vieles wiederherstellbar, aber jahrhunderte halten die digitalen datenträger auf keinen fall.

um also verluste zu verhindern, bleibt einem nichts anderes übrig, als beständig diverse zusätzliche speicherungen und kopien vorzunehmen. dies wird bei der zeitbilanz des digitalen (und so schnellen) arbeitens gern vernachlässigt. oder man druckt dann doch wieder. zumindest bietet das erlebnis eines umfassenden datenverlusts einen wunderbaren schreibanlass für eine geschichte – vielleicht von hand geschrieben (obwohl diverse schreibflüssigkeiten auch nicht ewig halten) 😉

mein computer und ich – eine umgangslehre (15)

ökologie

wenn die glühbirne zu viel strom verbraucht, dann wird eine verordnung erlassen, die die produktion der klassischen glühbirne stoppt und energiesparlampen den weg bereitet. eine kluge entscheidung, die sicherlich gehörige stromersparnisse bringen und uns doch nicht im dunkeln sitzen lässt. doch wer erlässt verordnungen, dass computer und smartphones möglichst energiesparend funktionieren sollen? das, was wir bei den glühbirnen sparen verpulvern wir längst schon wieder durch unsere hochleistungsrechner.

je besser die rechenleistung der prozessoren wird, um so mehr strom verbrauchen sie, um so wärmer laufen sie. so ist eines der größten probleme großer rechenzentren die kühlung der heisslaufenden komponenten. für die kühlung muss abermals strom verwendet werden. kaum jemand macht die rechnung auf, wie viel strom im laufe der jahre für die digitalisierung unserer welt notwendig ist. bis jetzt sind die menschen vor allen dingen an immer schnelleren und komplexeren rechnern interessiert.

auch der weg ins netz sollte schneller und unkomplizierter gehen. die smartphones sollten an jedem ort der welt empfang haben, aufladbar sein und möglichst alle fähigkeiten eines computers besitzen. die energiebilanz all dieser entwicklungen (ganz abgesehen von der computer-produktion) ist keine gute. dabei handelt es sich um eine ähnliche milchmädchenrechnung wie beim elektro-auto. es wird nach dem motto „kernenergie nein danke – bei mir kommt der strom aus der steckdose“ gehandelt.

abgesehen davon, dass unsere computer ganze großraumbüros aufheizen (und man diese energie nutzen könnte) stellen sich die wenigsten die frage, was uns unsere rechenleistungen an strom wert sind. und wie immer fängt das ökologische gewissen im kleinen an:

  • wenn man den rechner nicht nutzt, dann kann man ihn auch ausschalten (der lustige bildschirmschoner mag zwar ansprechend aussehen, lässt das ding aber weiterlaufen). Weiterlesen

web 2.0 und qual

eigentlich sollen ja das internet und im besonderen das web 2.0 die nutzung der digitalen kommunikation erleichtern und beschleunigen. in vielen bereichen ist dies auch geschehen und es bieten sich möglichkeiten, die vor ein paar jahren nicht vorstellbar gewesen wären. aber einem punkt hakt die ganze kiste: an der usability.

die vernetzung und verknüpfung der produzierten daten und der veröffentlichungen, gestaltet sich alles andere als einheitlich. wer sich wirklich aktiv durch das internet bewegt, der hat in kurzer zeit mindestens ein dutzend passwörter, hunderte von festgelegten und individualisierten einstellungen, dutzende zugänge und genug inkompatible situationen.

wie bei der hardware ergibt sich bei der software eine konkurrenzsituation, die ausschließlichkeiten produzieren will. man möge nur den einen anbieter nehmen und keine anderen daneben. einzig manche dateiformate und software-produkte sind auf allen betriebssystemen ohne größere probleme nutzbar. und wer glaubte, dass das cloud-computing oder die nutzung von internetplattformen durch alle, diesen konflikt auflösen würden, sieht sich getäuscht. die deutsche finanzbehörde schafft es bis heute nicht, für mac-user einen identischen zugang zur datenübertragung zu schaffen, wie für windows-user.

das geht noch weiter: google lässt sich nicht mit facebook vernüpfen, wordpress nicht vollständig mit google und facebook, nur ein teil der funktionen können genutzt werden, und alles in allem sammelt jeder anbieter seinen eigenen datenpool. durch diese aufsplittung kann weder auf einen einzigen datenpool zugegriffen werden, noch können die pools klar beschränkt und der datenschutz verwirklicht werden.

das lässt manche versuche, die möglichkeiten des web 2.0 auszuschöpfen, wenn man sich weitestgehend schützen will, zur qual werden. der traum, mit einem klick, alles notwendig auf- oder abrufen zu können, wird sich Weiterlesen

web 2.67 – stripgenerator.com

nachdem hier schon eine ganze menge -generatoren und -meter vorgestellt wurden, noch so ein ding. klingt erst einmal wie die seltsamen handy-apps, die nachts auf den kleineren privatsendern im tv vertickt werden sollen. total nervige ansprache, das handy kann dann pupsen, nacktscannen oder stöhnen und vibrieren oder vibrieren und zum stöhnen führen. das hat hier gerade noch gefehlt.

darum bezieht sich der stripgenerator auch nicht auf das ablegen der hülle, sondern auf das anlegen von zeichnungen und dialogen, nämlich von comic-strips. es ist wieder eine seite, die eine formen des cloud-computing nutzt. man erstellt also den comicstrip nicht auf dem eigenen computer mit einem programm, sondern man erstellt ihn auf einem server, der im hintergrund die ganzen werkzeuge zur verfügung stellt.

mehr als eine hübsche spielerei ist dies sicherlich nicht, jedenfalls in den augen ernsthafter comiczeichner. aber es ist eben doch eine hübsche spielerei für lau. das ganze programm funktioniert recht intuitiv und bietet diverse sprachen zu benutzung an. inzwischen sind dort auch ungefähr eine halbe million cartoons und comicstrips abgelegt. die verwendung wird nur zum schluss ein wenig kompliziert, wenn man sein produkt konservieren möchte. da ist die auflösung nicht berauschend, wenn man zum drucken übergeht, und für eine längere haltbarmachung muss man anscheinend registriert sein.

doch erste schritte mit vorlagen und ganz possierlichen figuren kann man mit hilfe dieses generators machen. und sollte einmal langeweile eintreten, dann kann man immer noch im privaten umfeld den auftritt als strip-generator wagen 😀

zu finden ist die seite unter: http://stripgenerator.com .

cloud computing – ein nachtrag

kaum hatte ich hier eine kurze betrachtung des „cloud computing“, wiederum durch die frage einer studentin ausgelöst, veröffentlicht, gab es heute einen ausführlichen artikel dazu in der süddeutschen zeitung.

der artikel „schreibmaschine mit datenleitung“ von helmut martin-jung erschien am 04ten november auf den wissensseiten der sz. dabei werden alle vor- und nachteile des cloud computing angerissen. zu finden ist der artikel leider noch nicht auf der homepage. dafür ein etwas älterer von thorsten riedl unter: http://www.sueddeutsche.de/computer/225/309165/text/ . und dann am besten finger weg davon 🙄

web 2.0 und cloud computing

weiß der geier, weshalb diese form der verwendung von programmen „cloud computing“ heißt, vielleicht weil es so wolkig und hübsch klingt. aber es ist ein trend, der nicht ohne vorsicht zu genießen ist. den anfang hat im größeren stil „google“ gemacht, als es anfing programmpakete anzubieten, die nicht mehr auf der eigenen festplatte installiert werden müssen, sondern die über das internet auf der webseitenoberfläche verwendet werden können.

das bedeutet, dass die eigentlichen arbeits- und rechenvorgänge auf netzwerk-computern, in diesem fall, denen von google, stattfinden. microsoft möchte solche möglichkeiten auch demnächst im größeren stil anbieten. doch der vorgang bedeutet, dass ich nicht mehr nur daten virtuell auf externen festplatten von anbietern im internet ablegen kann, sondern, dass ich meine arbeitsweisen auf deren rechnern ausführe. das erscheint problematisch, da sowohl arbeitsschritte als auch inhalte zwischengespeichert werden können. selbst wenn ich die datei zum schluss auf meinem eigenen computer abspeichern sollte, habe ich doch eine breite spur beim anbieter hinterlassen und kann nicht kontrollieren, was er damit macht. es scheint empfehlenswert sich bei heiklen daten auf keinen fall auf solch eine arbeitsweise zu verlassen. an der eigenen arbeitstelle lässt sich so etwas sicherlich nicht verhindern, erhöht aber auch die kontrollmechanismen durch den arbeitgeber. sozusagen bündelt er die gesamten tätigkeiten seiner mitarbeiter auf einem zentralen computer.

es ist heute kein problem mehr an preiswerte textverarbeitungs-, bildbearbeitungs- oder präsentationsprogramme zu kommen, die, wenn sie open source sind, sogar oft freeware sind und sich leicht auf der festplatte installieren lassen. sie bieten eindeutig eine sinnvolle und kompatible alternative zu dem „cloud computing“. und der datenschutz scheint auf alle fälle mehr gewahrt zu werden.