Firefox 89 und sein neues Design: Möchte noch jemand zurück zum alten Firefox?

Firefox Proton
Firefox – Protoneinstellungen

Seitdem ich den Browser Firefox in der Version 89 installiert habe, ist deutlich weniger Platz auf meinem Notebook-Bildschirm: Die obere Tab-Leiste erhält mehr Höhe im Vergleich zu vorher, und für die runden Ecken um jeden Tab herum werden wieder weitere Pixel verschenkt. Mag sein, dass dies viele User:innen so mögen – aber mir ist die alte, platzsparendere Variante beispielsweise auf meinem 13″-Bildschirm deutlich lieber.

So ging es wohl auch weiteren Firefoxer:innen – und kurz nach Veröffentlichung der Version 89 kursierten einige Anleitungen, wie man mit Hilfe der about:config wieder zurück zum alten Design springen kann. Ich verlinke mal auf eine schöne Schritt-für-Schritt-Anleitung:
https://news.itsfoss.com/firefox-old-design-switch

Leider wird diese Änderungsmöglichkeit vom Entwicklungsteam aber nicht gern gesehen. In den offiziellen Bug-Foren findet sich ein entsprechender Eintrag. Es dürfte also nur eine Frage der Zeit sein, bis diese Anpassung nicht mehr möglich ist, weil man die Einträge in der about:config löschen möchte. Bleibt nur zu hoffen, dass sich Fans finden, die vielleicht ein entsprechendes Small-Theme programmieren werden.

Disclaimer: Wie einigen hier schon bekannt sein dürfte, sind Änderungen im Bereich der „about:config“ natürlich mit Vorsicht zu genießen… man kann dort seine Browserkonfiguration komplett zerschießen, wenn man an den falschen Schrauben dreht.

macOS: Yippy! Zwischenablage mit eigenem Gedächtnis

Yippy, Screenshot
Yippy, das Upgrade für die Zwischenablage

Bei Copy und Paste ist es sicher schon allen passiert: Man will etwas wieder einfügen, aber hat inzwischen schon den nächsten Schnipsel kopiert. Je nachdem fängt man dann an, nach dem jeweiligen, vorher kopierten Schnipsel zu suchen (zum Beispiel URLs oder Textbausteine) oder man ärgert sich mehr oder weniger laut, dass der ursprüngliche Inhalt unwiederbringlich verloren ist.

Die Rettung kommt in Form eines Open-Source-Tools namens „Yippy“: Einmal installiert (und über die Systemsteuerung per „Bedienungshilfen“ mit den richtigen Berechtigungen ausgestattet), rettet es einem die letzten Eingaben. Bis zu 1500 Schnipsel können so gespeichert werden!

Der Shortcut „cmd + Shift + v“ blendet die Übersicht mit den letzten Eingaben ein und wieder aus. In dieser Ansicht können die Schnipsel beliebig erneut kopiert oder gelöscht werden. Sowohl die Shortcuts als auch die Erscheinungsform sind weitestgehend anpassbar.

https://yippy.mattdavo.com

Digitale Systemkameras und Spiegelreflexkameras als Webcam für Videokonferenzen und zur Lehrvideoproduktion nutzen

 

Als Reaktion auf die weltweiten Ereignisse und die damit steigende Nachfrage an technischen Voraussetzungen für Videokonferenzen haben mittlerweile auch fast alle namhaften Hersteller von digitalen Fotokameras/Systemkameras ihre Produkte für diesen Bereich interessant gemacht. So bieten die Hersteller nun die Möglichkeit ihre Kameras meist völlig unkompliziert und ohne zusätzliche Kosten zur reinen Videobildübertragung an einen Computer oder Mac anzuschließen. Grundlage hierfür ist eine kleine Software, die es gestattet digitale spiegellose Systemkameras und Spiegelreflexkameras per USB-Anschluss mit dem Computer zu verbinden und sie als Webcam zu verwenden, anstatt wie bislang meist nur die Datenübertragung und Kamerasteuerung zu ermöglichen. Der Anschluss über USB-Schnittstelle bietet mithilfe der Software dann teilweise mehr Flexibilität als eine auf diese Weise angeschlossene Webcam, vorher nötige zusätzliche externe oder interne Karten zur Wandlung des Videosignals über eine gängige Video-Schnittstelle wie zum Beispiel HDMI entfallen.

Wer also bereits eine digitale Kamera besitzt ist gut beraten zu prüfen, ob diese kompatibel ist und sich damit den Kauf einer zusätzlichen Webcam sparen kann. Weitere Vorteile im Gegensatz zu reinen Webcams oder in Notebooks eingebauten Kameras sind die überlegene Bildqualität, die bereits angesprochene höhere Flexibilität hinsichtlich der Aufstellung und Ausrichtung der Kamera sowie auch die bessere Bildsteuerung und Bildqualität bei schwierigen Lichtbedingungen. Zu beachten gilt jedoch, dass solche digitalen Kameras für längere Zeiträume nur verwendet werden können, wenn eine entsprechende Stromversorgung gewährleistet ist. Eine Nutzung über mehrere Stunden könnte problematisch werden, wenn die Kamera nur mit Akkus verwendet werden kann (dauerhafte Stromversorgungen lasen sich meist als Zubehör nachkaufen). Eine echte Webcam hat hier den Vorteil, dass sie über die USB-Schnittstelle mit Strom versorgt wird.

Meine persönliche Erfahrung begrenzt sich hier zwar bis jetzt auf die Hersteller Panasonic und Canon, doch traten hier keinerlei Probleme bei der Nutzung als Webcam auf und die Einrichtung war extrem einfach: einfach die entsprechende Software von der Hersteller-Webseite herunterladen und installieren. Sobald die Kamera dann per USB angeschlossen ist, lässt sie sich in den verschiedenen Softwareanwendungen für Videokonferenzen und in Broadcasting Tools als ‚Webcam‘ auswählen, ein Feature das bislang nur mit zusätzlicher Hardware möglich war.

Zum Zeitpunkt dieses Beitrags befanden sich einige Applikation noch im Beta-Stadium, doch scheinen alle aktiv weiterentwickelt zu werden und kontinuierlich weitere Kameras hinzugefügt zu werden, die die Webcam-Funktion mit Hilfe der Software unterstützen können. Ein Blick auf die bislang unterstützten Kameras der verschiedenen Hersteller legt nahe, dass die Geschwindigkeit der USB-Schnittstelle der Kameras ein entscheidender Faktor sein könnte: So sind es meist die aktuelleren und/oder höherpreisige Modelle, für die die Software angeboten wird, während ältere Modelle bei manchen Herstellern hier eher selten zu finden sind.

Hier ein kleiner Überblick über die zum Zeitpunkt dieses Beitrags unterstützten Kameras der verschiedenen Hersteller (Systemanforderungen lassen sich auf den verlinkten Seiten der jeweiligen Tools einsehen):

Canon

https://www.usa.canon.com/internet/portal/us/home/support/self-help-center/eos-webcam-utility/

Kameras: EOS-1D C, EOS-1D X, EOS-1D X Mark II, EOS-1D X Mark III, EOS 5D Mark III, EOS 5D Mark IV, EOS 5DS, EOS 5DS R, EOS 6D, EOS 6D Mark II, EOS 60D, EOS 7D, EOS 7D Mark II, EOS 70D, EOS 77D, EOS 80D, EOS 90D, EOS M200, EOS M50, EOS M50 Mark II, EOS M6 Mark II, EOS R, EOS R5, EOS R6, EOS Ra, EOS 100D (Rebel SL1), EOS 300D (Rebel SL2), EOS 250D (Rebel SL3), EOS 1100D (Rebel T3), EOS 600D (Rebel T3i), EOS 1200D (Rebel T5), EOS 700D (Rebel T5i), EOS 1300D (Rebel T6), EOS 750D (Rebel T6i), EOS 760D (Rebel T6s), EOS 2000D (Rebel T7), EOS 800D (Rebel T7i), EOS 850D (Rebel T8i), EOS 4000D (Rebel T100), EOS RP, PowerShot G5X Mark II, PowerShot G7X Mark III, PowerShot SX70 HS

FUJIFILM

https://fujifilm-x.com/de-de/support/download/software/x-webcam/

Kameras: GFX100, GFX 50S, GFX 50R, X-H1, X-Pro2, X-Pro3, X-T2, X-T3, X-T4

Nikon

https://downloadcenter.nikonimglib.com/de/download/sw/187.html

Kameras: Z 7II, Z 7, Z 6II, Z 6, Z 5, Z 50, D6, D5, D850, D810, D780, D750, D500, D7500, D7200, D5600, D5500, D5300 und D3500

Olympus

https://learnandsupport.getolympus.com/olympus-om-d-webcam-beta

Kameras: E-M1X, E-M1, E-M1 Mark II, E-M1 Mark III, E-M5 Mark II

Panasonic

https://www.panasonic.com/global/consumer/lumix/lumix_webcam_software.html

Kameras: DC-S1H, DC-S1R, DC-S1, DC-S5, DC-GH5S, DC-GH5, DC-G9, DC-G100/G110

SONY

http://support.d-imaging.sony.co.jp/app/webcam/de/

Kameras: Alpha 7 II, Alpha 7S, Alpha 7S II, Alpha 7R II, a5100, a6300, Alpha 68, Alpha 77 II,  Cyber-shot RX1R II,  Cyber-shot RX10 II,  Cyber-shot RX10 III, Cyber-shot RX-100 IV, Cyber-shot RX-100 V

Besondere Zeiten erfordern besondere Videokonferenzen: Wie führt man eine Online-Feierstunde durch?

Benjamin D. Ferencz ist der letzte noch lebende Ankläger der Nürnberger Prozesse. Für seine Verdienste wurde er vor kurzem mit der Ehrendoktorwürde ausgezeichnet. Wie die Online-Feierstunde aus technischer Sicht verlief, beschreiben wir hier als Erfahrungsbericht – auch als Beispiel für zukünftige, ähnliche Nutzungsszenarien.

Screenshot der Feierstundenaufzeichnung

Was hat das mit IT – beziehungsweise mit dem RRZK – zu tun? Wir wurden gebeten, diese mit rund 400 Teilnehmenden etwas größere Veranstaltung mit technischer Unterstützung zu begleiten und Fragen rund um die Durchführung im Vorfeld der Feierstunde zu klären.

Vorbereitungen

Geplant war die Veranstaltung als Videokonferenz beziehungsweise als Webinar über das Zoom-Portal der Uni Köln. Ein Zoom-Webinar hat den Vorteil, dass die Sprecher*innen auf dem virtuellen Podium als „Panelists“ für alle sichtbar sind. Die (passiv) Teilnehmenden der Feierstunde bleiben unsichtbar, können sich aber jederzeit mit Wortbeiträgen – wie beispielsweise Gratulationen – äußern.

Administration durch mehrere Hosts

In den Einstellungen wurden drei Hosts benannt. Dies hat den Vorteil, dass die Videokonferenz bei möglichen Verbindungsproblemen eines der drei Hosts zum einen aufrecht erhalten werden kann. Zum anderen hätten jederzeit bestimmte administrative Aufgaben (wie das Hineinlassen weiterer Teilnehmender aus dem Warteraum) von den jeweils anderen durch- oder weitergeführt werden können.

Aufzeichnung

Die Feierstunde sollte mit Bild und Ton aufgezeichnet werden. Um diese Aufzeichnung unabhängig von der Verbindungsqualität des jeweiligen Hosts zu erstellen, nutzten wir die Cloud-Aufnahmefunktion von Zoom, die mehrere Videos und Audiospuren als mp4- und mp3-Dateien nach dem Ende des Webinars bereitstellte. Warum mehrere Spuren und Dateien? Auf diese Weise gab es eine „Videogesamtspur“, die alle Panelisten in der Galerieansicht von Zoom zeigte. Zusätzlich wurden die Einzelansichten der Redner*innen separat aufgezeichnet. Am Ende ermöglichte uns das einen dynamischen Zusammenschnitt der Aufnahmen mit einem Wechsel zwischen Einzel- und Gesamtansicht. Wie man dies einstellen kann, beschreibt Zoom in seinem Help-Center.

Absprache zum Wechseln zwischen den Reden

Hätte man die Feierstunde in Präsenz abgehalten (vermutlich im größeren Rahmen der Aula der Universität) wären die Redner nacheinander aufs Podium vor das Mikrofon getreten. Im Virtuellen ist dies durch Zoom ebenfalls möglich, wenn man die Einzelansicht wählt. Zoom erkennt automatisch (leider mit ein paar Sekunden Verzögerung), wer gerade spricht und schaltet dann in der Einzelansicht auf die sprechende Person um. Deshalb sollten die jeweiligen Redenden zunächst einige Sekunden warten, um einen guten Übergang zu gewährleisten.

„Generalprobe“

Durch einen Probedurchlauf wurden die Panelisten vorab instruiert. Dies bezog sich auf den Ablauf der Feierstunde sowie auf die Reihenfolge der Ansprachen. So klärte man die technischen Details zur Einwahl in die Konferenzoberfläche, die Informationen zur Aufzeichnung und weitere Fragen sinnvollerweise im Vorhinein – gute Voraussetzungen für einen reibungslosen Ablauf.

Die Feierstunde

Wie zeigt man ein virtuelles Bühnenbild?

Alternatives Bühnenbild, Text als Überleitung zu Rektor A. Freimuth
Als Alternative zum Bühnenbild hier die Überleitungsgrafik zur Rede von Rektor A. Freimuth

Neben den Redner*innen zeigte man eine per Bildschirm geteilte Präsentation; sie diente sozusagen als Bühnenbild-Ersatz. Eine Folie visualisierte zu Beginn den Titel beziehungsweise den Anlass der Feierstunde sowie die (die Feierstunde ausrichtende) Rechtswissenschaftliche Fakultät mitsamt Fakultätslogo/-siegel. Zwischen den einzelnen Redebeiträgen leitete eine Folie mit Namen und Titel zu den angekündigten Personen über. So konnte die Moderation – in diesem Fall moderierte Prof. Dr. Claus Kreß – von visuellen Überleitungen unterstützt werden (die Reden selbst fanden ohne geteiltes Hintergrundbild statt). Danach blendete man zum Abschluss der Feierstunde einige Fotos aus dem Leben des Gewürdigten ein.

Voraufgezeichnetes Video vorführen

Höhepunkt der Feierstunde war ein Video des Geehrten, das wenige Tage vor der Veranstaltung aufgezeichnet wurde. Dieses blendeten wir mit Bild und Ton über die Bildschirm-Teilen-Funktion ein. Dabei muss man unbedingt darauf achten, die Audioausgabe des eigenen Rechners mit zu übertragen und am besten die Ausgabe für Videoclip zu optimieren.

Hosts / Technik ausgeblendet

Panelisten der Feierstunde
Nur die Redner*innen sollten während der Feierstunde sichtbar sein.

Sichtbar waren während der gesamten Feierstunde nur die Panelisten selbst. Die technisch Verantwortlichen, also die Hosts, hatten Mikrofon und Kamera deaktiviert. Über die Funktion „Teilnehmer ohne Videoübertragung ausblenden“ war sichergestellt, dass es nicht die üblichen „schwarzen Kacheln“ im Webinar zu sehen gab. Nur die Namen der Hosts waren in der Liste der Panelisten sichtbar. Diese angezeigten Namen konnten jedoch so angepasst werden, dass nur noch der jeweilige Einrichtungsname zu sehen war (zum Beispiel „RRZK“). Dies lässt sich entweder direkt im laufenden Meeting ändern oder gleich dauerhaft im eigenen Zoom-Profil einstellen.

Die Videoaufzeichnung

Um die Eindrücke der Feierstunde auch nachträglich verfügbar zu machen, haben wir ein Video aus der Aufzeichnung zusammengeschnitten.

Wie oben benannt, aktivierten wir im Vorhinein die Cloud-Aufzeichnungsfunktion von Zoom. Diese lässt die Hosts (beziehungsweise zunächst nur die Person, die das Webinar erstellt hat!) die Inhalte als mp4-Video- und mp3-Tondateien herunterladen. Zwar erhält man auch eine von Zoom bereitgestellte Webseite mit der bereits eingebetteten Aufzeichnung, die so problemlos auch der Öffentlichkeit hätte zugänglich gemacht machen können. Diese Seite wird jedoch nach 30 Tagen gelöscht. Somit wäre das Video dort nicht dauerhaft erhalten geblieben.

Darüberhinaus wollten wir das von Zoom bereitgestellte Video am Schluss nicht „einfach so“ veröffentlichen und haben dazu mit der Videoschnittsoftware Adobe Premiere Pro noch ein wenig nachbearbeitet. Warum? Zum einen wollten wir das Video etwas „schöner“ machen und hier und da die „leere“ Zeit zwischen den Sprecherwechseln etwas verkürzen. Durch Überblendungen wirkten die Übergänge nicht so hart und direkt. Sinnvollerweise haben wir die beiden Videospuren mit Einzel- und Galerieansicht zu allererst übereinandergelegt und durch entsprechende Schnitte eine passgenaue Überblendung erreichen können. Deshalb wirkt dies so, als wären wie bei einer Präsenzveranstaltung verschiedene Kameras eingesetzt worden.

Hätte es bei einem der Panelisten zwischendurch Audiostörungen (oder Nebengeräusche durch fälschlicherweise aktivierte Mikrofone) gegeben, könnte man durch eine separate mp3-Spur, die nur die jeweils Sprechenden aufgezeichnet hat, als Überbrückung mit hineinsynchronisieren. In diesem Fall war das aber nicht nötig (als Backup ist es aber sinnvoll).

Die während der Veranstaltung eingeblendeten Folien haben wir nachträglich als Grafikdateien eingebunden, so dass jeweils die unkomprimierten Grafiken zu sehen waren – anstatt die bei der Übertragung kleingerechneten, mit Artefakten versehenen Varianten.

So kam ein schöner, leicht dynamischer Bild-Mix zwischen Einzel- und Galerieansicht sowie den präsentierten Fotos zustande. Wer sich das Ergebnis anschauen möchte: Das fertige Video ist hier veröffentlicht. Bereitgestellt wird dies über die Opencast-Plattform der Uni Köln. Über das entsprechende Video-Modul im Typo3-Content-Management-System bindet man den Videoplayer direkt in die Webseite ein.

Fazit

Aus technischer Sicht darf man dieses Webinar als gelungen betrachten, denn: Alles funktionierte reibungslos, die Redebeiträge verliefen technisch einwandfrei, und darüberhinaus gab es keinerlei Störungen während der Übertragung. Nota bene: Nach nun fast einem Jahr Pandemie und ihrer Auswirkungen auf die Forschung und die Arbeitswelt zeigte sich erfreulicherweise, dass die Beteiligten mit der Durchführung von Videokonferenzen gut zurechtkamen und mit den Funktionen (in diesem Fall von Zoom) bestens vertraut waren. Dies wurde aber zusätzlich dadurch sichergestellt, dass das Vorbereitungsteam des Lehrstuhls für Völkerrecht  im Vorhinein gut geplant hatte, und dass alle Panelisten bei einer Testvideokonferenz ausführlich vom Vorbereitungsteam instruiert worden sind.

Inhaltlich lässt sich das Resümee ziehen, dass die Verantwortlichen sehr viel dafür getan haben, die Feierlichkeit einer solchen Zeremonie möglichst angemessen ins Digitale zu übertragen – auch dies ist dem Organisationsteam und den Durchführenden gut gelungen! Davon zeugen die vielen positiven, per Chat am Schluss der Veranstaltung eingegangenen Rückmeldungen der Teilnehmenden. Und für die verantwortliche RRZK-Mitarbeiterin war es abseits aller technischer Unterstützung ein eindrückliches und besonderes Erlebnis, dabei gewesen sein zu dürfen.

 

Webseitenstatistiken und SEO mit Matomo: Hinweise und Tipps

Immer wieder werden wir nach der richtigen Verwendung von Matomo gefragt, und wir helfen gern, soweit wir können.
Es gibt hier aber oft Fehleinschätzung der Bedeutungen der Statistiken. Das häufigste Problem ist das der Sample Size: Eine signifikante Statistik über eine Seite mit nur 2-3 Besuchern am Tag zu erstellen, wird nicht funktionieren.
Daher hier etwas Lesestoff mit Hinweisen und Tipps, die man verinnerlicht haben sollte, bevor man ein großen SEO-Programm oder eine Reichweiten-Analyse beginnt.

HINWEISE:

1. Fast alle Browser bringen eine Funktion mit, die das Tracken von Zugriffen untersagt, bei vielen Browsern ist diese per Default aktiviert. Sie sehen also nur einen Bruchteil der Klicks.

2. Sehr viel häufiger als von Menschen, werden die Webseiten von Bots, Crawlern und auch von böswilligen Angreifern besucht. Um halbwegs verwendbare Zahlen zu liefern, muss Matomo also ordentlich ausfiltern. Diese Filter sind nicht perfekt so dass eine Vielzahl von registrierten Klicks gar nicht auf reale Menschen zurückzuführen ist.

3. Aus der Sicht von Matomo ist jeder Browser zunächst eine eigene Person. Sind Sie mit Ihrem Mobilgerät mal im WLAN, mal im Funk-Netz und mal in einem anderen WLAN oder im VPN, sieht es so aus als wären es mehrere Personen. Haben Sie zuhause eine normale DSL Leitung bekommen Sie wahrscheinlich täglich eine andere IP-Nummer und zwar eine, die an anderen Tagen von anderen Kunden Ihres Providers genutzt wurde.
Aus dieser sehr schmutzigen Datenlage versucht Matomo mit „schlauen“ Filtern anhand von Indizien mehrere scheinbare Besucher zu eindeutigen Besuchern zusammenzufügen. Dies wird niemals perfekt gelingen, so dass die Anzahl von eindeutigen Besuchern immer zu hoch sein wird.

4. Viele Betreiber von Webseiten unterschätzen grob, wie viele Personen fälschlicherweise auf eine Webseite kommen, merken dass es nicht das ist, was sie suchten und wieder gehen. Die „Verweildauer“ einer Person auf der Seite ist sehr wichtig. Selbst reale Personen, die nur wenige Sekunden auf einer Seite bleiben, sollten statistisch eigentlich nicht berücksichtigt werden.

Die Zahlen der „korrekten“ Messungen werden also immer zu niedrig ausfallen, die Zahlen von „falschen“ Messungen immer zu hoch. Dies führt dazu, dass die absoluten Zahlen äußerst unzuverlässig sind, besonders wenn sie klein sind. Sie messen also nicht die tatsächliche Zahl der Besucher, sondern die nur die Wirksamkeit der Matomo-Filter.

Als Faustregel sagen wir immer:

Solange Sie nicht mindestens 100 Besucher am Tag angezeigt bekommen, dürfen Sie die Zahlen in Matomo ignorieren.

TIPPS:

Aber Matomo kann auch für Seiten mit wenigen Besuchern sehr nützlich sein, man muss lediglich mit den relativen Angaben in Matomo arbeiten. Es gilt also immer, zwei aussagekräftige Messungen zu finden und diese in Relation zu einander zu betrachten. Hier ein paar Beispiele:

1. Mobil-Anteil: Wählen Sie links unter „Besucher“/“Geräte“, und sie erhalten Auswertungen, mit was für Geräten Ihre Webseite aufgerufen wird. Oft wird unterschätzt, dass heute (Stand 2020) schon 30-50% Smartphone-User normal sind.

2. Uhrzeiten: Wenn Sie wissen, dass Ihre Zielgruppe aus Deutschland stammt, wählen Sie links unter „Besucher“/“Zeiten“, und Sie erhalten Auswertungen, zu welchen Uhrzeiten sich Personen auf Ihren Seiten bewegen. Haben Sie im Vergleich(!) zu den Spitzenzeiten ungewöhnlich viele Aufrufe zu Zeiten, zu denen Ihre Zielgruppe schlafen sollte, können Sie sehen, dass hier viele falsche Messungen erfasst wurden, und Sie somit auch den anderen Zahlen nicht trauen können. Man kann aber auch Abschätzungen treffen, ob Personen eher zu normalen Arbeitszeiten tagsüber auf Ihre Seite kommen, oder in der Freizeit am Wochenende oder Abend.

3. A/B-Vergleich: Bauen Sie zwei (oder mehrere) unterschiedliche Seiten mit dem gleichen Inhalt, Verlinken Sie diese auf unterschiedliche Weise: In Mailanschreiben, auf Postern, auf Ihrer Startseite als Teaser (verlinktes Bild) oder im Fließtext. Schauen Sie nach einer angemessenen Zeit nach, welche Seite mehr Klicks bekommen hat.

4. Vorher/Nachher-Vergleich: Erstellen Sie eine Seite und bewerben Sie diese eine Zeit lang nicht. Dann ergreifen Sie nacheinander und dokumentiert verschiedene Maßnahmen: Mail-Anschreiben, Verlinkungen auf anderen Seiten, Facebook, Twitter etc. und schauen Sie ob sich die Besucherzahlen nach einer dieser Maßnahmen signifikant ändern.

5. Verweildauer: Wie oben schon erwähnt sind die Verweildauer und die sog. Absprungrate extrem wichtige Messwerte um die Attraktivität Ihrer Seite einzuschätzen. Hier geht es selten um optisches Gefallen, sondern darum, ob ein Besucher nach dem Klick auf Ihre Seite glaubt, am richtigen Ort zu sein. Wird nach einer Detailfrage gegoogelt, man kommt aber auf einer Plakativen Startseite an, wird so manch einer abgeschreckt, auch dann, wenn die gesuchte Information irgendwo auf der Seite zu finden gewesen wäre. Das Verhältnis zwischen der Zahl derer, die Sofort gegangen sind, und derer, die geblieben sind, lässt Rückschlüsse auf die Qualität von Maßnahmen und der Seite als ganzes zu.

6. Transitions: Die Auswertung der Transitions ist ein komplexes Feld in sich welches hier zu erklären zu weit führen würde, doch man sollte dieses Tool zumindest kennen: Im Dashboard finden Sie die Aufzählung Ihrer Seiten und wie viele Klicks diese erhalten haben. Wenn Sie mit der Maus über einer Zeile (ggf. muss ein Order zunächst ausgeklappt werden) hovern, erscheinen drei Symbole, das mit den sich überkreuzenden Pfeilen steht für Transitions. Klicken Sie hierauf und erhalten Sie eine Darstellung, woher die Besucher auf Ihre Seite gekommen sind, und wohin sie danach gegangen sind, oder ob ein Download getätigt wurde. Dies kann gute Erkenntnisse darüber bringen, wie Ihre Seiten aufgebaut werden sollten. Beachten Sie dabei dass es mittlerweile vollkommen normal ist das die überwältigende Mehrheit der Besucher von Suchmaschinen kommt. Selbst wenn jemand die genaue Adresse einer Seite kennt, wird oft eine Suchmaschine verwendet, weil man „zu faul“ ist die Adresse als ganzes zu tippen.

Bedenken Sie aber bei all diesen Überlegungen, dass Matomo lediglich das Verhalten der Besucher aufzeichnet, die Ihre Seite tatsächlich gefunden haben. Nicht erfasst wird das eigentlich viel wichtigere Verhalten der Personen, die Ihre Seiten nützlich gefunden hätten, aber aufgrund falscher Suchbegriffe oder einfach dem Umstand dass die Suchenden gar nicht wissen, wonach sie suchen sollen, Ihre Seite nie gefunden haben.
Auch wissen Sie nicht, was Besucher eigentlich vor hatten, die es auf Ihre Seite geschafft haben.

Ich hoffe diese Informationen helfen Ihnen. Gerne beantworten wir Rückfragen, beachten Sie aber, dass das RRZK Matomo nur bereitstellt. Wir sind keine SEO- und schin gar keine Marketing-Experten.
Matomo ist ein Tool, mit welchem erfahrene Personen Probleme aufdecken können und den Erfolg gezielter Marketingstrategien bewerten können. Wenn Sie in dieses Thema einsteigen wollen, wenden Sie sich bitte an Personen, die sich hiermit beruflich beschäftigen.

 

Noch ein persönlicher Kommentar zu SEO (Suchmaschinenoptimierung):

Wir möchten gerne darauf hinweisen, dass SEO hauptsächlich von Redakteuren umgesetzt werden muss.
Es hält sich hartnäckig der Irrglaube, dass SEO nur die Anwendung technischer Tricks ist. Diese sind wichtig, keine Frage, aber die Suchmaschinen werden immer gute Webseiten belohnen. Wichtiger als dem neusten SEO-Trend hinterherzulaufen ist es meist, verständliche, übersichtliche Webseiten zu erstellen, die den Besuchern bereitwillig die Informationen geben, die gesucht werden, statt ihnen Informationen aufzudrängen, die nicht wirklich nachgefragt werden. (vgl. https://xkcd.com/773/)
Kurze, prägnante Überschriften, klare Einleitungen sind wichtig. Absatz-lange Überschriften, die sich in Details verlieren schrecken ab und lesen sich so gut wie das deutsche Steuergesetzbuch. Bedenken Sie dass Suchmaschinen-Benutzer mit unterschiedlichstem Vorwissen irgendwo auf Ihren Seiten einsteigen. Wer sich sofort gut aufgehoben fühlt, weiß wo man gelandet ist und findet, was er sucht, wird mit einer besseren Meinung die Webseiten verlassen.
Ein wesentlicher Bestandteil in Googles Bewertungssystem war und ist, ob eine Webseite von anderen Seiten verlinkt wird. Verlinken Sie Partnerseiten untereinander und sorgen Sie dafür, dass Sie an wichtigen Stellen erwähnt werden. (Haben Sie aber dabei Verständnis, dass die Startseite der Uni und ähnliche Seiten nur einen begrenzten Platz haben und nicht jede Seite ganz oben stehen kann.)
Beachten Sie aber auch, dass keine Suchmaschinen Optimierung nötig ist, wenn die Suchenden gezielt zu Ihnen wollen: Solange es keine zweite konkurrierende Uni-Köln gibt, werden die Suchbegriffe „Uni Köln“ immer zu uns führen. Finden Sie lieber die Schlagworte, die Sie von anderen Suchergebnissen abgrenzen, und verwenden Sie diese prominent in Überschriften und Seitentiteln.

LOGIN:
Haben Sie eine Webseite, auf der die Statistik Erfassung aktiviert ist, loggen Sie sich mit Ihrem Uni-Account ein unter: https://matomo.rrz.uni-koeln.de. Haben Sie mehrere Webseiten, für die Sie zuständig sind, können Sie zwischen diesen innerhalb von Matomo hin und her wechseln.

Die Statistikerfassung ist bei den meisten TYPO3 Seiten der Uni-Köln bereits aktiviert, falls nicht, wenden Sie sich an Ihren Administrator.

Mit freundlichen Grüßen
Thomas Moll

Zeig‘ Dich, Fenster: Mit AltTab unter macOS durch alle Fenster switchen

Liebe Mac-User:innen, kennen Sie das? In Thunderbird oder im Ticketsystem hat sich ein weiteres Fenster geöffnet (zum Beispiel das Fenster mit der E-Mail-Antwort), und Sie wollen „nur nochmal“ mit einem Tastatur-Shortcut in ein anderes Fenster wechseln?

Bildschirmfoto: AltTab-FensterwechslerFür die Leute mit Windows-Systemen ist das kein Problem: Mit der Tastenkombination [Alt] + [Tab] kann man bequem zwischen Fenstern wechseln. Beim Mac ist dies nativ nur programmweise möglich, das heißt: Mit der bekannten Tastenkombination [cmd] + [Tab] wechseln Mac-Nutzende „nur“ von einem Programm zum nächsten. Damit wird das extra E-Mail-Fenster buchstäblich hinten liegen gelassen. Oder (für alle OTRS-Nutzenden) das offene Ticket-Beantwortungs-Fenster. Wie es so schön heißt: Wer es anders kennt – oder schon immer gern mit Tastaturkürzeln gearbeitet hat –, wird es vermissen.

Abhilfe schafft das schöne, kleine Tool „AltTab“. Das Programm ergänzt die von Windows bekannte Alt-Tab-Kombination um die Möglichkeit, von Fenster zu Fenster zu wechseln. Es ist OpenSource; die Releases stehen außerdem über GitHub zum Download zur Verfügung.

Für das bequeme Wechseln zwischen den Fenstern benötigt AltTab den Zugriff auf den Bildschirm. Also nicht wundern, wenn das Programm um Berechtigungen in der Systemsteuerung bittet.

Auch Apple kann kompliziert: Mails signieren und verschlüsseln mit iPhone und iPad

Auf die Gefahr hin, dass die letzten Beiträge unseres Blogs ein klein wenig Apple-lastig werden, folgt auf den letzten Beitrag ein weiterer über iGeräte, genauer: Über verschlüsselte E-Mails, und warum die Sache mit der Usability nicht immer so einfach ist, wie man das als User*in gerne hätte.

Haben Sie, liebe Blog-Lesende, schon einmal eine E-Mail verschlüsselt? Nein? Dann gehören Sie wahrscheinlich zur großen Mehrheit von IT-Nutzenden, die das Thema zwar „schon einmal irgendwo gehört oder gelesen“ haben, aber sich selbst noch nie damit befasst haben.

Zumindest könnten Sie einmal darüber nachdenken, Ihre E-Mails mit Hilfe eines S/MIME-Zertifikats zu signieren, was gleichzusetzen ist mit einer Unterschrift. Wie Sie an der Uni Köln ein solches Zertifikat beantragen und wofür das gut ist, können Sie hier nachlesen.

Wie man sein Zertifikat dann auf verschiedenen Geräten einrichtet und nutzt, haben wir an dieser Stelle dokumentiert. Einmal eingerichtet, ist das Ganze sofort lauffähig, und Ihre Mails werden fast unmerklich digital signiert. In diesem Beitrag legen wir den Fokus auf mobile Apple-Geräte. iOS unterstützt S/MIME-Zertifikate und die E-Mail-Verschlüsselung schon seit dem Jahr 2015 – so neu ist das Thema zugegebenermaßen also nicht.

Bildschirmabbild, das das Fenster zum Erstellen einer neuen E-Mail zeigt

Verschlüsselte oder signierte E-Mails zu empfangen ist kinderleicht. Neben dem Absende-Namen taucht bei einer signierten und/oder verschlüsselten E-Mail ein kleines Häkchen und gegebenenfalls ein Schlosssymbol auf.

Jetzt kommt der Teil, der komplizierter ist, als es sein müsste: Spannend wird es, wenn man seine Mails neben dem Signieren auch verschlüsseln möchte. Dazu schweigt sich interessanterweise sogar die Anleitung von Apple selbst aus. Das führt dann dazu, dass man zunächst einmal eine Fehlermeldung erhält, wenn man es mit dem Verschlüsseln versucht (siehe Bild). Wo hakt’s? Die Anleitung von Apple sagt, dass in diesem Fall das Zertifikat der Empfänger*in nicht gefunden wurde. Aber kein Wort darüber, was man nun tun soll, damit das iGerät diesen öffentlichen Schlüssel der anderen Person kennenlernen kann…?

Spoiler: Dazu muss man das Zertifikat tatsächlich „installieren“, sagt die Oberfläche, wenn man ein bisschen danach sucht.

Hat man diese Schritte einmal gefunden, ist es ganz einfach:

1.) Eine E-Mail der Person öffnen,
2.) in der Kopfzeile auf den Namen klicken,
3.) gegebenenfalls nochmals auf den Namen klicken, dann
4.) auf „Zertifikat anzeigen“, und zum Schluss
5.) auf „Installieren“ klicken.


Bildschirmabbild, das die Details eines Mail-Zertifikats anzeigt

Diese Schritte muss man für jede Person vornehmen, der man verschlüsselte E-Mails senden will.

Zusammenfassend kann man sagen: Wenn man einmal weiß, was man tun muss, ist es gar nicht so kompliziert. Aber warum gestaltet man – beziehungsweise Apple – diesen Vorgang so umständlich? Einfacher wäre es wie beim Open-Source-Mail-Programm Mozilla Thunderbird: Hier wird der öffentliche Schlüssel der Absender*in – also der Teil des Zertifikats, der dem iOS-System wie oben genannt zunächst „bekannt gemacht“ werden muss – direkt automatisch gespeichert.

Kurzes Fazit: Weniger ist mehr. Ich würde mir wünschen, dass Apple dieses Prozedere vielleicht etwas einfacher gestaltet und zukünftig weniger Arbeitsschritte nötig sind. Das würde zur Akzeptanz von E-Mail-Zertifikaten und deren Einsatz sicher enorm beitragen.

Erste IoT-Schritte: Laufende Temperaturmessung mit dem Arduino und ThingSpeak

Bei meinem letzten Beitrag zum Thema hatte ich schon beschrieben, wie man den Arduino mit Hilfe eines E32-Shields ins WLAN bringt. Nun sollte das Ganze einen nützlichen Zweck erfüllen. Für den Anfang reichte mir der Anschluss eines einfach DS18B20-Temperatursensors und die fortlaufende Dokumentation der Messung bei einem IoT-Server. Natürlich kann man auch selbst einen MQTT-Server (sprich: Mosquito-Server) aufsetzen und verwenden, aber ThingSpeak bietet sich hier einfach aus mehreren Gründen an. Vor allem auch deshalb, weil es bereits eine fertige Bibliothek für den Arduino gibt, sodass man die Befehle zum Senden der Werte auf einem hohen Abstraktionslevel belassen kann.

Wie so oft gilt auch hier: Natürlich gibt es das alles schon und es ist auch alles im Netz frei verfügbar und dokumentiert. Aber es kostet dann doch relativ viel Aufwand, alles zusammen zu tragen und im Detail zu verstehen. Daher schreibe ich meine Vorgehensweise hier strukturiert auf. Ebenfalls gilt: Natürlich braucht der wahre Profi den Arduino gar nicht dafür, ein kleiner ESP8266 genügt ebenso. Aber es geht ja auch ein wenig um den Spaß und um das Verständnis des Ganzen, und dafür ist der Arduino einfach besser geeignet. Natürlich wäre das Gleiche auch mit einem Raspberry Pi machbar, der große Vorteil hier liegt darin, dass man sich ein schönes Python-MQTT-Skript schreiben kann und die Fallen vom Arduino-C etwas umschifft.

Doch zurück zum Arduino-Beispiel. Die Verkabelung der Hardware ist – basierend auf der bereits bestehenden Kombination aus Arduino und ESP-Shield – denkbar einfach. Der Temperatursensor bringt drei Kabel mit, die an 3,3V- (rot), GND- (schwarz) und einen beliebigen Digital-PIN (gelb) des Arduino bzw. des aufgesteckten Shields angeschlossen werden. Fertig.

Die eigentliche Kunst liegt also in der Software. Als Basis nehme ich den verkürzten Sketch aus dem WLAN-Anschluss-Beispiel:

#include "WiFiEsp.h"
#include "SoftwareSerial.h"

SoftwareSerial Serial1(3, 2); // RX, TX

char ssid[] = "MeinTollesWLAN";
char pass[] = "**********";
int status = WL_IDLE_STATUS;
WiFiEspClient client;

void setup(void) {
Serial.begin(9600);
Serial1.begin(9600);
WiFi.init(&Serial1);

while ( status != WL_CONNECTED) {
Serial.print("Verbindungsaufbau zu ");
Serial.println(ssid);
status = WiFi.begin(ssid, pass);
}

Serial.println("Verbindung hergestellt!");
Serial.println();
printWLAN();
Serial.println();
}

void loop(void) {
}

void printWLAN()
{
IPAddress ip = WiFi.localIP();
Serial.print("IP-Adresse: ");
Serial.println(ip);
Serial.print("SSID: ");
Serial.println(WiFi.SSID());
long rssi = WiFi.RSSI();
Serial.print("Signalstaerke (RSSI): ");
Serial.println(rssi);
}

Wie man leicht sieht, macht der Sketch vorerst nichts abgesehen vom Verbindungsaufbau zum WLAN. Soweit so gut. Beginnen wir mit den Bibiotheken und Konstanten, die wir für alles Weitere benötigen. Die Bibliotheken heißen „OneWire“ (Temperatursensor) und „ThingSpeak“ (Verbindung zum IoT-Server).

ThingSpeak kann man auf der folgenden Seite herunterladen und dann der (sehr kurzen) Installationsanleitung folgen:

https://github.com/mathworks/thingspeak-arduino

Und wenn man gerade schon dabei ist, verfährt man ebenso mit der hier erhältlichen OneWire-Library.

Welche Konstanten werden nun benötigt? Zum einen die Nummer des PINs, an dem das gelbe Datenkabel des Sensors angeschlossen wurde. In meinem Beispiel ist das die Nr. 5. Um mit ThingSpeak arbeiten zu können, muss zudem ein Account bei dem Dienst angelegt werden. Nach dem Login kann dann ein einzelner Channel erstellt werden, der künftig die Daten entgegen nimmt. Die Nummer des Channels sowie unser APIKey von ThingSpeak sind die letzten benötigten Konstanten:

#include "OneWire.h"
#include "ThingSpeak.h"

int Sensor_Pin = 5;
unsigned long Channel = 123456789abcdef;
const char * APIKey = "************";

Bei unserer Messung verwenden wir ein Objekt aus der Klasse OneWire, dem als Parameter die Nummer des PINs übergeben wird:

OneWire ds(Sensor_Pin);

In der setup-Funktion wird die Kommunikation mit dem ThingSpeak-Server initialisiert, dabei wird die WLAN-Verbindung als Übertragungsweg übergeben:

ThingSpeak.begin(client);

Kommen wir zur Loop-Funktion. Diese soll im Grunde folgende Elemente enthalten: Messen, Ausgeben, Übertragen, Warten. Das Messen ist dabei mit riesigem Abstand die komplexeste Aufgabe und wird daher in eine eigene Funktion „getTemp“ ausgelagert. Der Rest ist relativ einfach. Damit nur echte Messwerte eingetragen werden, verwende ich „-100“ als Fehlerwert, alles darüber hinaus wird an ThingSpeak übertragen. Dabei müssen Channel, das Datenfeld (in unserem Fall einfach das einzige, also 1), der gemessene Wert sowie der APIKey übertragen werden. ThingSpeak kann man nicht mit beliebig vielen Werten fluten, 20 Sekunden Wartezeit zwischen den Messungen sind hier i.d.R. angemessen. Somit ergibt sich die Loop-Funktion:

void loop(void) {
float temperatur = getTemp();
Serial.println(temperatur);
if ( temperatur > -100) {
ThingSpeak.writeField(Channel, 1, temperatur, APIKey);
}
delay(20000);
}

Tja, und nun geht’s ans Eingemachte, namentlich um die Funktion „getTemp“. Ich gebe zu, dass ich – der ich nie wirklich C gelernt habe – dann doch einige Zeit intensiv darüber nachdenken musste, um die gefundenen Programmierbeispiele zu verstehen. Ich habe sie hier auf das Nötigste gekürzt und versuche sie zu erläutern.

Wir benötigen zwei Byte-Arrays namens „addr“ (für die Adressdaten des Sensors, es könnte mehrere geben) und „data“ (für die Messwerte). Zudem gilt es, ein paar Fehler abzufangen, z.B. Fehler in der Prüfsumme (CRC) oder gar einen nicht gefundenen oder nicht unterstützten Adapter. In all diesen Fällen wird unser Fehlerwert „-100“ zurückgegeben:


byte data[12];
byte addr[8];

if ( !ds.search(addr)) {
ds.reset_search();
return -100;
}

if ( OneWire::crc8( addr, 7) != addr[7]) {
Serial.println("CRC fehlerhaft!");
return -100;
}

if ( addr[0] != 0x10 && addr[0] != 0x28) {
Serial.print("Kein Sensor erkannt");
return -100;
}

Durch den Aufruf von „ds.search(addr)“ wird der Array praktischerweise direkt mit den Adressdaten des Sensors gefüllt, sodass wir nun – da keine Fehler aufgetreten sind – damit arbeiten können. Die nächsten Schritte sind im Einzelnen: Reset der Kommunikation, Auswahl des Sensors, Durchführen einer Messung und schließlich das Auslesen der Werte aus einem Zwischenspeicher, Speichern der Werte in unserem Datenarray. Anschließend kann wieder ein Reset der Suche nach Sensoren erfolgen.

ds.reset();
ds.select(addr);
ds.write(0x44); // Kommando: Messung durchfuehren
ds.reset();
ds.select(addr);
ds.write(0xBE); // Kommando: Werte auslesen
for (int i = 0; i < 9; i++) {
data[i] = ds.read();
}
ds.reset_search();

Fast fertig. Doch unsere Messwerte sind noch ein wenig „kryptisch“ und entsprechen nicht gerade dem, was wir aufzeichnen wollen. Die eigentlich interessanten Werte „MSB“ (most significant byte) und „LSB“ (least significant byte) stecken in unseren Datenfeldern 1 bzw. 0:

byte MSB = data[1];
byte LSB = data[0];

Sie enthalten die gemessene Temperatur in Binärdarstellung, wie ein Blick in das Datenblatt des DS18B20 verrät:

Um daraus nun einen „gewohnten“ Temperaturwert zu erhalten, bedarf es einer bitweisen Verschiebung des MSB um 8 Stellen nach links und einer bitweisen Verknüpfung mit dem LSB (und gleichzeitig einer Umwandlung in eine Fließkommazahl zur Basis 10):

float tempRead = ((MSB << 8) | LSB);

Wie man dem Datenblatt entnehmen kann, enthält das Ganze aber auch Nachkommastellen, das wurde bei der Umwandlung nicht berücksichtigt. Durch welche Zahl muss nun geteilt werden? Da unsere eigentliche „Basis“ (die 2^0 – Stelle) an vierter Position befindet, ist die Zahl um den Faktor 2^4 = 16 zu hoch. Es folgt:

float TemperatureSum = tempRead / 16;
return TemperatureSum;

Fertig! Hier noch einmal der komplette Sketch, viel Spaß beim Ausprobieren:


#include "OneWire.h"
#include "ThingSpeak.h"
#include "WiFiEsp.h"
#include "SoftwareSerial.h"

int Sensor_Pin = 5;
unsigned long Channel = 123456789abcdef;
const char * APIKey = "************";

OneWire ds(Sensor_Pin);

SoftwareSerial Serial1(3, 2); // RX, TX

char ssid[] = "MeinTollesWLAN";
char pass[] = "**********";
int status = WL_IDLE_STATUS;
WiFiEspClient client;

void setup(void) {
Serial.begin(9600);
Serial1.begin(9600);
WiFi.init(&Serial1);
ThingSpeak.begin(client);

while ( status != WL_CONNECTED) {
Serial.print("Verbindungsaufbau zu ");
Serial.println(ssid);
status = WiFi.begin(ssid, pass);
}

Serial.println("Verbindung hergestellt!");
Serial.println();
printWLAN();
Serial.println();
}

void loop(void) {
float temperatur = getTemp();
Serial.println(temperatur);
if ( temperatur > -100) {
ThingSpeak.writeField(Channel, 1, temperatur, APIKey);
}
delay(20000);
}

float getTemp(){

byte data[12];
byte addr[8];

if ( !ds.search(addr)) {
ds.reset_search();
return -100;
}

if ( OneWire::crc8( addr, 7) != addr[7]) {
Serial.println("CRC fehlerhaft!");
return -100;
}

if ( addr[0] != 0x10 && addr[0] != 0x28) {
Serial.print("Kein Sensor erkannt");
return -100;
}

ds.reset();
ds.select(addr);
ds.write(0x44); // Kommando: Messung durchfuehren
ds.reset();
ds.select(addr);
ds.write(0xBE); // Kommando: Werte auslesen

for (int i = 0; i < 9; i++) {
data[i] = ds.read();
}

ds.reset_search();

byte MSB = data[1];
byte LSB = data[0];

float tempRead = ((MSB << 8) | LSB);
float TemperatureSum = tempRead / 16;
return TemperatureSum;
}

void printWLAN()
{
IPAddress ip = WiFi.localIP();
Serial.print("IP-Adresse: ");
Serial.println(ip);
Serial.print("SSID: ");
Serial.println(WiFi.SSID());
long rssi = WiFi.RSSI();
Serial.print("Signalstaerke (RSSI): ");
Serial.println(rssi);
}

Anmerkungen zu Big Data und den Folgen für die Speicher-Infrastruktur

Was ist Big Data?

Der Terminus „Big Data“ ist nun schon seit einigen Jahren auf dem Markt. Neuigkeiten wie der NSA-Skandal haben sicherlich dazu beigetragen, Aufmerksamkeit für den ganzen Themenkomplex zu wecken. Mögliche Konsequenzen der neuen Datenwelt, die ja ein wichter Teil der digitalen Transformation sind, werden inzwischen in den allgemeinen Medien ausführlich dargestellt und besprochen.

In den Wissenschaften, insbesondere in den Natur- und Lebens-, den Wirtschafts- und Sozial- aber auch in den Geisteswissenschaften, werden „Big Data“-Techniken als neue Arbeitsmethoden immer wichtiger. Grund genug, hier ein paar Überlegungen zu „Big Data“ und zur technologischen Basis anzustellen.

Der Begriff. Ganz grob gesprochen geht es bei „Big Data“ um die Verknüpfung verschiedener und umfangreicher Datenbestände. In der Hoffnung, neue Informationen bzw. Erkenntnisse gewinnen zu können, werden diese korreliert und analysiert; eine komplexe Jonglage also.

Google Trends verrät, dass seit 2009 „Big Data“ als Suchbegriff austritt und dann rasch relevanter wird. Die Methode ist im Kern nicht ganz so neu und baut ganz erheblich auf älteren Ansätzen wie Data Warehouse auf. Aber „Big Data“ ist eine umfangreiche Ansammlung verschiedener Technologien: Gartner hat einen eigenen Big Data Hype Cycle zusammengestellt, in dem das Thema in über drei Dutzend Teilgebiete differenziert wird. Trotzdem hat sich inzwischen eine allgemeine Charakterisierung für „Big Data“ entwickelt, welche um englische Begriffe kreist, die alle (mnemotechnisch günstig) mit einem V beginnen:

Die ersten drei Vs. Diese drei „klassischen“ Vs gehen auf einen steinalten Artikel von D. Laney aus dem Jahr 2001 zurück und heißen: Volume, Velocity und Variety.

Volume: Wie “Big Data” schon nahelegt, ist der schiere Umfang der verwendeten Daten eine wichtige Kenngröße. Während man heute sicherlich einige Terabyte (10^12) aufbieten können muss, treibt einige Leute schon die Sorge um, dass irgendwann die Präfixe knapp werden könnten und bringen Brontobytes (10^27) ins Gespräch …

Velocity (Schnelligkeit): Hiermit ist die Geschwindigkeit gemeint, mit der Daten erzeugt, verarbeitet und analysiert werden. Auch die Analyse während der Erzeugung, also eines Datenstroms, ist eine besondere Ausprägung dieses Merkmals.

Variety (Verschiedenheit): Die gemeinsame Verwendung von Daten aus unterschiedlichen Quellen sowie von strukturierten und unstrukturierten Daten ist ebenfalls typisch. Dies ist auch eine echte Weiterentwicklung des sehr strukturierten Data Warehouse Ansatzes.

Noch mehr Vs. Nach den genannten drei Vs kamen aber noch weitere Merkmale dazu:

Veracity (Wahrhaftigkeit): Dieses Charakteristikum greift den spannenden Umstand auf, dass auch Daten ausgewertet werden, die inkonsistent oder nicht sonderlich vertrauenswürdig sind. Man ahnt schon, dass dies ganz neue Herausforderungen mit sich bringt.

Variability (Veränderlichkeit): Diese besondere Ausprägung spielt eine Rolle, wenn Daten aus einer Sprachverarbeitung heraus verwendet werden. Dann kann sich die Bedeutung der Daten selbst verändern.

Visualisation (Veranschaulichung): Gerade die Analyse des Datenmaterials ist eine ziemliche Herausforderung. Der eingangs erwähnte WDR-Beitrag enthält auch ein paar mahnende Fehlinterpretationen, denen man ganz leicht aufsitzen kann. Für ein wirkliches Verständnis der „mutmaßlichen Befunde“, ist eine Veranschaulichung bereits in der Analyse unabdingbar. Zur Darstellung der Ergebnisse ist das weite Gebiet der Infographiken ein wichtiges Hilfsmittel. [1] [2] [3] [4]

Und noch ein V. Als siebtes (und bislang) letztes V findet sich

Value: Das ist eigentlich die „Sinnstiftung“ von Big Data, nämlich die Erinnerung, dass eine nützliche, wertvolle Erkenntnis am Ende der Übung stehen soll.

Weitere und ausführlichere Darstellungen finden sich im Web reichlich [5], [6].

Big Data = Technik + Algorithmik + Analytik? Die Charakteristiken von „Big Data“ scheinen mir nahe zu legen, dass hier drei Schichten zusammengebracht werden müssen, um ein fundiertes und werthaltiges Ergebnis zu erreichen:

  1. DieTechnik, welche die Voraussetzungen zur Haltung und Verarbeitung von Daten ist. Diese kann natürlich als Service im Sinn des Cloud-Paradigmas realisiert werden.
  2. Die Algorithmik, also die Konstruktion oder Wahl geeigneter Software zur Auswertung der Daten.
  3. Die Analytik, welche Hypothesen aus der Auswertung falsifiziert oder validiert, um ein Verständnis der Aufgabenstellung zu erreichen. Auf dieser Ebene ist die Semantik der Ergebnisse der dominierende Aspekt.

Die sieben Charakteristiken von Big Data sind nicht alle gleichermaßen auf diesen Schichten ausgeprägt. Vielmehr sind einige Schwerpunkte evident:

Technik Algorithmik Analyse
Value Stark
Visualisation Stark
Variability Mittel Stark
Veracity Stark Stark
Variety Stark Stark
Velocity Stark Stark
Volume Stark Mittel

Dass sich die drei „klassischen Vs“ – Volume, Velocity und Variety – in der Technik- und Algorithmik-Schicht besonders deutlich niederschlagen, ist wenig überraschend. Bei Veracity und Variability steht schon per definitionem die Semantik der Daten im Mittelpunkt.

Nun noch ein paar Überlegungen zur Speicherung und dem Management von Daten im Big Data Kontext.

 

Big Data und die IT-Infrastruktur

Traditionelle Speicher-Architekturen. Das Speichern und Verwalten von Daten kann auf recht unterschiedliche Weise erfolgen. Auf einer ziemlich tiefliegenden Technikebene können beispielsweise „Block Devices“ genutzt werden, um Portionen von Bytes zu schreiben und zu lesen. Das ist flexibel und performant, aber mühselig und eher für Experten geeignet. Anwender arbeiten normalerweise mit Dateisystemen oder auch (im Fall hochgradig strukturierter Daten) relationalen Datenbanken. Dateisysteme organisieren die einzelnen Dateien in einer Hierarchie und bieten oft Features wie Zugriffsteuerung, Versionierung, Replikation. In der Big Data Welt wird aber immer häufiger von Objekt-Speicher gesprochen, der die guten alten Filesysteme ablösen wird. Warum wird das so sein?

Objekt-Speicher. Das Konzept des Objekt-Speichers beruht auf dem Ansatz, die Details der Speicherung wie etwa Speicherort zu verbergen. Mit dem Speicherobjekt kann nur über eine definierte, schlanke Schnittstelle interagiert werden. Konkret besteht das Speicherobjekt aus einer eindeutigen Identitätskennung (ID), Metadaten, einer Menge von Standardmethoden (in der Regel ein API mit den CRUD-Aktionen – und häufig Accounting für die Cloud) sowie dem eigentlichen Dateninhalt. Das unterscheidet sich sehr erheblich vom Filesystem: Da der Speicherort verborgen ist, gibt keine Hierarchie (sondern nur die ID). Raffinierte, mächtige Features sind im Objekt-API nicht implementiert.

Das klingt auf den ersten Blick nicht besonders verlockend. Allerdings kommen mit diesem Ansatz auch Vorteile:

  1. Der Zugriff über eine ID und ein API ist einfach zu standardisieren. Verschiedene Speicher können dann gleichartig genutzt werden.
  2. Der Umgang mit Datenobjekten über ein API, also von einer Anwendung aus, ist grundsätzlich einfacher als das hantieren mit Dateien. Dabei muss nämlich mit dem Betriebssystem eines Servers oder aber einem Netzwerkprotokoll interagiert werden, was typischerweise ziemlich komplex und variantenreich ist.
  3. Die Objekt-Metadaten können im Prinzip erweitert werden, was Dateisysteme meist nicht vorsehen.
  4. Das Datenmanagement kann erheblich flexibler und weitreichender agieren, weil der Speicherort vor den Nutzenden verborgen ist. Dadurch können mehr steuernde und optimierende Eingriffe transparent durchgeführt werden.
  5. Im Zusammenspiel mit den Objekt-Metadaten kann das Datenmanagement besser automatisiert werden. Bei Filesystemen ist dies nur bei speziellen HSM-Lösungen möglich.
  6. Durch die Entkopplung von Nutzung und Management können horizontal skalierende Lösungen (scale out) einfacher realisiert werden.

Vorteile sind also sowohl in der Datennutzung als auch im Datenmanagement zu erwarten, wobei es hauptsächlich um Standardisierung, Automatisierung und Flexibilisierung geht.

Volume, Velocity, Variety und Speicher-Objekte. Bezüglich Volume und Velocity sind die Vorteile des Objektspeichers bezüglich des Datenmanagements (also 4, 5 und 6) relevant. Bei riesigen Datenmengen mit erheblichen Veränderungsraten wird die Transparenz und Automatisierung von Management-Aktivitäten immer wichtiger, da dies Einschränkungen bei der Verfügbarkeit reduziert und einen „smarten“ Umgang bei Lastwechseln ermöglicht.

Während die Nutzenden stärker von Fragen der Kapazitätsplanung entlastet werden können, verbleibt ihnen die Bürde des Umgangs mit den unterschiedlichen Datenquellen. Die Komplikationen, die sich aus der Variety ergebenen könnten, werden beim Objekt-Speicher aber durch die einfachere und einheitliche Schnittstelle aus ID und API (also 1, 2 und 3) entschärft.

Für die interaktive Standardnutzung im Büroalltag werden Filesysteme sicherlich weiterhin ihre Bedeutung behalten, denn dort ist die hierarchische Organisation oft sehr sachgemäß. Für die Nutzung von Speicherbeständen aus Anwendungen heraus, welche diese dann komplexe Analysen in diesen Beständen durchführen, sind Objekt-Speicher aber zweifellos die bessere Wahl.

Es wird spannend sein, wie sich Nachfrage und Angebot in den nächsten Jahren an unserer Universität entwickeln werden. Gartner gelangt übrigens zu dem Schluss, dass Big Data im Jahr 2014 die Hype-Cycle-Phase des „Trough of Disillusionment“ erreicht hat. Good Luck, Big Data!

 

Weitere Informationen

Provost, F.; Fawcett, T.: Data Science for Business; O’Reilly; 2013

Strg+Alt+Entf unter Windows bei iMac mit deutscher (Bluetooth-)Tastatur

Auf meinem älteren iMac (Late 2009) mit deutscher, schnurloser Bluetooth-Tastatur nutze ich regelmäßig eine Windows7-Bootcamp-Installation. Der Anmeldevorgang beginnt bei der Standardeinstellung mit der Tastenkombination „Strg-Alt-Entf“, die ich (ohne Keyboard Remapping oder Verwendung eines anderen USB-Keyboards) der Apple-Tastatur nicht entlocken kann. Aber so kann man es beim Anmeldebildschirm erreichen:

1. Bildschirmtastatur einblenden (links unten)

2. Tastatur-Layout auf „Englisch (USA)“=“EN“ umschalten (links oben)

3. Auf der Bildschirmtastatur Ctrl-Alt-Del eingeben. Dies erzielt die erwünschte Wirkung.

Die Regel, welche diese Eingabe erfordert, kann beispielsweise mit dem Tool „netplwiz“ deaktiviert werden. Dazu einfach (als Admin) „netplwiz“ als Kommando ins Eingabefeld des Startmenüs eingeben.