Monat: Mai 2015

Architekturbewertung auf einen Blick

Sigs Datacom Poster zu Architekturbewertung

Architekturbewertung auf einen Blick – auf einem neuen Poster von SIGS DATACOM. Zusammen mit meinem Kollegen Jens Knodel (Fraunhofer IESE) habe ich dieses Poster konzipiert. Ihr könnt es dank der Unterstützung von Sposoren kostenlos bei SIGS DATACOM bestellen.

Dieses Poster beantwortet alle wichtigen Fragen rund um Architekturbewertung:

  • Was ist das?
  • Warum?
  • Wer braucht das?
  • Wann?
  • Wie geht es?
  • Wie viel?
  • Wer macht es?
  • Wer macht mit?
  • Womit?
  • Und was dann?

Das Poster stellt einen Ansatz vor, der von Architekturanforderungen bis zum Code alle Aspekte der Architekturbewertung betrachtet und integriert. Er beruht auf bekannten Methoden wie ATAM, ist aber etwas leichtgewichtiger und soll Entwicklern und Architekten die Möglichkeit bieten, systematische Architekturbewertungen selbst durchzuführen.

Time-to-Market und Architekturwissen (WICSA 2015)

Die Skyline von Montreal, Veranstaltungsort der WICSA 2015

Die WICSA 2015 fand vom 04. bis 07. Mai zusammen mit der CompArch in Montreal statt.

Das gesamte Programm war sehr abwechslungsreich und beleuchtete viele Facetten rund um Softwarearchitektur. Das ausgerufene Konferenzthema war „Architecting in Context“, insgesamt gab es aber keine dominierenden thematischen Schwerpunkte. In meinem Bericht greife ich deshalb einfach Themen und Vorträge auf, die mich am meisten angesprochen haben.

Keynotes bei der WICSA 2015

Clemens Szyperski hielt am Auftakttag im Rahmen der WCOP eine Keynote „Maintaining composure: The long journey along the path of compositional software engineering”. Sein Hauptfokus waren kompositionale Aspekte in der Softwareentwicklung, von der Komposition von Funktionen über Komponenten bis hin zu Services. Eine interessante Beobachtung dabei ist, dass Komposition in der Softwareentwicklung immer nur ein Einbinden von ausgelagertem Code ist, wenn auch auf unterschiedlichen Größenordnungen. Das steht im Gegensatz zu Komposition z.B. im chemischen Bereich, wo tatsächlich andere Verbindungen entstehen können durch chemische Reaktionen. Das einzige Beispiel aus der Softwareentwicklung, das etwas anders ist, ist die Aspektorientierung. Die hat Clemens aber nochmal besonders im Hinblick auf Komposition hervorgehoben: Sie funktioniert zuverlässig eigentlich nur, wenn man nur einen Aspekt einwebt, und somit keine Interaktion zwischen Aspekten hat. Somit ist die Komponierbarkeit „etwas eingeschränkt“.

"Negatives Zeichnen"

Clemens hatte noch einen weiteren sehr interessanten Aspekt in seiner Keynote: Er verglich das Architekturdesign mit „negativem Zeichnen“ („negative space drawing“). Dabei zeichnet man nicht das eigentliche Objekt, sondern alles außenrum, sodass das Objekt dadurch sichtbar wird. Negatives Zeichnen bewirkt im Gehirn andere Denkprozesse und arbeitet das zu zeichnende Objekt anders heraus. Bezogen auf Softwarearchitektur stellte Clemens heraus, wie ein Softwarearchitekt nicht die konkrete Lösung vorgibt, sondern eher Pfeiler einschlägt, indem er vorgibt, wie gewisse Aspekte auf keinen Fall umzusetzen sind. Ganz im Sinne einer Keynote führte dies zu sehr angeregten Diskussionen, die auch noch am Nachmittag in einer Working Session fortgesetzt wurden. Wir kamen zu dem Schluss, dass der veränderte Blickwinkel auf die Erzeugung von Architekturentscheidungen durchaus nützlich sein kann, dass aber umgekehrt auch viele Fragen offen bleiben, wie z.B. die nach der geeigneten Dokumentation von so getroffenen Architekturentscheidungen. Wie bei so vielen Analogien zu Softwarearchitektur hatten wir am Schluss den Eindruck, dass sie in einigen Bereichen sehr nützlich sein kann, aber doch auch viele Limitierungen hat.

"Canary Tests"

Len Bass hielt eine Keynote “Design for Deployment”. Das dahinterstehende Ziel ist eine schnelle Time-to-Market für neue Features und damit verbunden die Fähigkeit zu schnellen Releases. Len schloss damit an die Themen „DevOps und Microservices“ der SATURN an. Er arbeitete heraus, dass für eine hohe Releasehäufigkeit die Abstimmung zwischen Teams reduziert werden muss. Dazu arbeiten Teams eigenverantwortlich an einem klar definierten Systemteil (Microservice) und interagieren mit den Systemteilen der anderen Teams über klar definierte Schnittstellen. Das stellt eine sehr konsequente Umsetzung von Conway’s Law dar. Über einen hohen Automatisierungsgrad im Test und die integrierte Verantwortung für Entwicklung und Betrieb (DevOps) kann dann die hohe Releasehäufigkeit erreicht werden. Len stellte weitere Implikationen für die Architektur heraus, z.B. Aspekte wie Zustandslosigkeit von Services, um sie möglichst gut skalieren zu können. Ein zentrales Thema in der Keynote war auch das Upgrade von Services auf neuere Versionen und was das im Zusammenspiel mit anderen Services und für die Realisierung von neuen Features bedeutet. Len stellte dafür Strategien vor und erläuterte die Rolle von Feature Toggles, mit denen ein Feature global oder selektiv freigeschaltet werden kann, wenn das Deployment abgeschlossen ist. Auch die Nutzung von Feature Toggles für sogenannte Canary Tests (bei denen neue Features mit einer ausgewählten Submenge der Gesamtnutzer vorsichtig getestet werden) arbeitete Len heraus. Len hielt wie immer einen Vortrag von hoher praktischer Relevanz, in dem er sowohl die dahinterliegende Motivation als auch die Architekturkonzepte und konkrete Umsetzungstechnologien klar herausarbeitete.

"Stairway to Heaven"

Jan Bosch hielt eine mitreißende Keynote „From Opinions to Facts: Building Products Customers Actually Use”. Wer Jan schon einmal auf der Bühne erlebt hat weiß, dass seine Vorträge extrem unterhaltsam und mit sehr vielen konkreten Beispielen illustriert sind. Seine Kernaussagen waren

  • „Kunden wissen nicht, was sie wollen. Deshalb ist es nötig, schnell Experimente machen zu können.“ Dazu zitierte er natürlich Henry Ford: „If I had asked people what they wanted, they would have said faster horses.”
  • „Eine schnelle Time-to-Market ist absolut essentiell und ein entscheidender Wettbewerbsvorteil, und unabdingbar für schnelle Experimente.“

Jan illustrierte sowohl den Wert von schneller Time-to-Market als auch methodische und architekturelle Aspekte, um sie zu erreichen. Architekturell schließt sich das an die Keynote von Len Bass an und greift DevOps und Microservices Ideen auf. Er sieht Architekten als Coaches direkt in den Entwicklungsteams, die meist auch noch direkt mitentwickeln. Jan betonte, dass wirtschaftlich eine schnelle Time-to-Market auf jeden Fall einen höheren Wert hat als Geld einzusparen durch eine höhere Produktivität. Er beschreibt eine 5-stufige „stairway to heaven“:

  • Traditionelle Entwicklung
  • Agile Entwicklung
  • Continuous Integration
  • Continuous Delivery
  • R&D als ein Innovationssystem mit schnellen Experimenten

Um Kunden genau die Produkte und Features liefern zu können, die sie brauchen und nutzen, läuft es auf das schnelle Experimentieren heraus: der Produktanbieter beobachtet die Nutzer bei der Produktnutzung und fährt auch direkte Vergleiche von Systemvariationen (A/B-Tests). Dies ist nur möglich, wenn der Produktanbieter neue Features und Variationen sehr schnell releasen kann. Um dies zu erreichen müssen strategische, methodische, organisatorische, und architekturelle Aspekte der Entwicklung und des Betriebs optimal aufeinander abgestimmt werden. Jan überraschte in seiner Keynote damit, dass er mit seiner Gruppe aktuell daran arbeitet, diese Art des schnellen Experimentierens nicht nur für Internetfirmen nutzbar zu machen sondern auch für eingebettete Systeme wie Autos, wo er mit Volvo kollaboriert.

Architekturwissen greifbar gemacht

Ian Gorton stellte eine sehr interessante Arbeit zum Thema Architekturwissen und Wissensmanagement vor: Während Technologien häufig sehr ausführlich in Bezug auf ihre Benutzung beschrieben werden, findet man fast nie eine gute Beschreibung der architekturellen Implikationen. Ian stellte dazu am Beispiel von aktuellen Big Data Technologien vor, wie solches Wissen aufbereitet und bereitgestellt werden kann. Dazu wurde am SEI eine Erweiterung zu MediaWiki erstellt, was Konzepte wie Architekturtreiber und Architekturentscheidungen aufgreift und im Sinne strukturierter Daten erfassbar macht. Das Wiki führt durch die Erfassung und Dokumentation architekturrelevanter Aspekte und macht das Auffinden leicht. Initial gefüllt ist das Wiki mit dem Namen QuABaseBD mit Architekturwissen zu Big Data Technologien. Nach wie vor ist das Erstellen solchen Wissens mit sehr viel Aufwand verbunden und es ist schwierig, die richtige Abstraktionsebene zu finden, um im konkreten Nutzungsfall dem Architekten die richtigen Antworten zu liefern. Es ist definitiv noch einiges an Forschung nötig, um die richtige Art der Informationserfassung, -aufbereitung, -suche und –verwendung von Architekturwissen zu bestimmen.

Was soll es denn kosten?

Eltjo Poort hat untersucht, inwiefern sich die Einbeziehung von Architekten in der Projektanbahnungsphase auswirken kann. Er arbeitet für die niederländische Firma CGI, die viele Softwareprojekte mit Festpreisangeboten anbietet und deshalb auf eine präzise Kostenschätzung angewiesen ist. Eltjo stellte eine Methode vor, in der Projektmanager, Kostenschätzungsexperten und Architekten zusammenarbeiten, um zu einer Kostenschätzung zu kommen, die möglichst präzise ist. Dazu wird eine erste grobe architekturelle Zerlegung des Systems vorgenommen, um mit diesem Wissen bessere Schätzungen machen zu können. Dazu konnte er auch aus einer wissenschaftlichen Untersuchung Zahlen präsentieren: In untersuchten Projekten kam es zu deutlich weniger Budgetüberziehungen (3% statt 22%) und weniger Zeitüberziehungen (8% statt 48%) wenn entsprechende Architekturarbeiten in der Kostenschätzung durchgeführt wurden.

Mehr Aufmerksamkeit den Daten

Ich hielt meinen Vortrag als Plädoyer dafür, Daten mehr Aufmerksamkeit beim Architekturdesign zu widmen. Das mag in Zeiten von Big Data erst mal grotesk erscheinen. Betrachtet man aber Daten in einer Architekturbeschreibung, so beschränkt sich das meist auf einen Datenmanagement-Layer mit Datenbanken und ein Datenmodell. Das wird dem Einfluss von Daten auf das Architekturdesign und die Erreichung von Qualitätseigenschaften nicht annähernd gerecht. Insbesondere der Einfluss auf User Experience und Performance und natürlich auf Security ist enorm. Um die richtigen Daten zum richtigen Zeitpunkt am richtigen Ort zu haben, müssen Architekten sich bedeutend mehr Gedanken machen als eine Datenbank auszuwählen und ein Datenmodell zu designen. Am Beispiel eines Projekts von John Deere und Fraunhofer IESE haben wir gezeigt, wie vielfältig die Anforderungen und geforderten Qualitätseigenschaften sich um Daten drehen, und welche Architekturentscheidungen dafür getroffen wurden. Dabei ging es um Themen wie Inter-App-Kommunikation, Offline-Fähigkeit, Mandantenfähigkeit, Mehrsprachigkeit uvm. Im Anschluss gab es in der Working Session eine angeregte Diskussion zum Thema, die eine breite Mehrheit dafür fand, dass Daten wirklich mehr Aufmerksamkeit brauchen (und wir reden hier nicht davon, dass man den derzeit allgegenwärtigen Einsatz von Big Data Technologien fordert: dann wird nämlich oft genau der gleiche Fehler gemacht ;-).

Was bringt die Zukunft in der Forschung zu Softwarearchitektur?

Ian Gorton, Jean-Guy Schneider, Len Bass, Patricia Lago und Ralf Reussner diskutierten in einem teils humoristisch und teils ernst geführten Panel „Future Directions for Software Architecture Research”. Aus dieser Diskussion gebe ich hier nur einige Ausschnitte wieder.

Die Forschung zu Softwarearchitektur soll …

  • … endlich die großen Probleme angehen und nicht nur die „low-hanging fruits“ ernten (Ian Gorton)
  • … sich mehr um aktuelle innovative Themen kümmern, wie z.B. die „16 Dinge“ von Andreessen Horowitz (von Len Bass ins Spiel gebracht mit einer Vorauswahl)

    16 Dinge von Andreessen und Horowitz

    „16 Dinge“ von Andreessen und Horowitz (http://a16z.com/2015/01/22/16-things/)

  • … sich noch mehr um verschiedene Sichten auf Softwaresysteme kümmern und wie diese konsistent gehalten werden können (Ralf Reussner)
  • … sich mehr damit auseinandersetzen, was die kognitiven Limitierungen von Menschen im Engineering sind und wie Methoden und Tools deshalb gestaltet werden müssen (Ralf Reussner)
  • … sich mehr um das Thema Skalierbarkeit kümmern, insbesondere vor dem Hintergrund wie große skalierbare Systeme getestet werden können (Jean-Guy Schneider)
  • … sich mehr um die Integration in den gesamten Entwicklungsprozess und den Lebenszyklus von Systemen kümmern
  • … mehr zusammenarbeiten und auch fokussieren, um von zu vielen isolierten Forschungsinseln wegzukommen
  • … durch Benchmarks und Vergleichbarkeit von Methoden sich gegenseitig zu neuen Ideen anstacheln
  • gemeinsam Architekturwissen sammeln, aufbereiten und der Praxis zugänglich machen, um mehr Einfluss zu gewinnen

Die WICSA 2015 war eine sehr kurzweilige Veranstaltung mit vielen interessanten Denkanstößen und Erkenntnissen. Der Modus einer „Working Conference“, das heißt mit Impulsvorträgen und dann längerer Diskussion, führte zu sehr angeregten und tiefen Diskussionen, manchmal sogar zu Grundsatzdiskussionen des Software Engineering. Umso wichtiger ist aber auch die aktive Teilnahme des Publikums, das sich heute manchmal eher hinter dem Laptop versteckt als aufmerksam zuzuhören. Einer der Session Chairs hat vorgemacht, wie das umgangen werden kann: Er hat alle Zuhörer nach vorne geholt und Laptops für unerwünscht erklärt – und damit die diskussionsreichste Session der Konferenz ermöglicht.

2016 wird die WICSA wieder zusammen mit der CompArch stattfinden, dann in Venedig. Ich freue mich schon drauf!

Mut zur Naivität (Softwareforen Leipzig)

Dachterrasse der Softwareforen Leipzig

Das 10. Treffen der User Group Requirements Engineering der Softwareforen Leipzig hatte den Themenschwerpunkt „Effektive Anforderungserhebung und Ideenfindung im Requirements Engineering“ (hier gibt es die vollständigen Veranstaltungshinweise als PDF). Zum Auftakt der Veranstaltung wurde die Erhebung von Anforderungen oder Informationen im Allgemeinen zunächst einmal nicht aus dem Blickwinkel der Informatik oder des Software Engineerings betrachtet.

10 Grundregeln für verständliche Texte (im Radio)

Der Radio-Journalist Christian Bollert (BEBE Medien GmbH, detektor.fm) berichtete von seinen Erfahrungen beim Vorbereiten und Durchführen von Interviews fürs Radio. Radiohörer haben leider nicht die Möglichkeit bei einem Wort, das sie nicht verstehen kurz anzuhalten und das Wort nachzuschlagen. Auch können sie nicht einfach einige Seiten zurückblättern, um noch einmal etwas nachzuschlagen. Daher müssen Texte im Radio einfach zu verstehen sein. Ich sehe jedoch keinen Grund, warum geschriebene Texte komplizierter sein sollten, schon gar nicht wenn es um Anforderungen geht. Die 10 Grundregeln für Texte im Radio, die Christian Bollert vorgestellt hat, können somit für jegliche Art von Text angewendet werden:

  1. Kurze, verständliche Sätze, möglichst wenig Nebensätze
  2. Gesprochene Sprache, keine Kunstsprache. Nach dem Motto: Wie erzähle ich es einem Freund – mündlich!
  3. Sätze zum Vorlesen sprechend entwickeln (laut vorlesen)
  4. Aktiv statt Passiv; kein Nominalstil, verbal schreiben
  5. Sätze nicht mit Informationen überfrachten
  6. Eines nach dem Anderen erklären
  7. Fremdwörter oder Fachbegriffe sofort erklären oder ganz darauf verzichten
  8. Namen und zentrale Begriffe wiederholen – Redundanz erwünscht! („Redundanz statt Varianz“)
  9. Bildlich vergleichen: So groß wie ein Fußballfeld
  10. Füllwörter nutzen. Sie ermöglichen Atempausen und verbinden (Beispiele: „deshalb“, „darum“, „aus diesem Grund“)

Gerade technische Texte beschreiben oftmals eine überaus komplexe Fachlichkeit. Daher sehe ich überhaupt keinen Grund, warum diese Texte durch umständliche Formulierungen weiter verkompliziert werden sollen.

"Interviews sollten immer sehr gut vorbereitet werden."

Requirements Engineers verwenden oftmals leider nicht allzu viel Zeit auf die Vorbereitung von Interviews mit Stakeholdern. Zudem wird bei der Vorbereitung meist nur festgelegt WAS man von einem Stakeholder wissen möchte und leider nicht WIE man eigentlich danach fragt. Auch hier hatte Christian Bollert nützliche Hinweise. Er hat 12 verschiedene Typen von Fragen vorgestellt und dabei neben Beispiele auch beschrieben, unter welchen Umständen man den jeweiligen Fragentyp einsetzen sollte. So soll beispielsweise die Entscheidungsfrage „Was brauchen Kinder ihrer Meinung nach mehr: mehr Freiheit in der Erziehung oder mehr Struktur?“ verhindern, dass der Befragte um den heißen Brei herumredet oder sich einfach herausreden kann. Mehrfachfragen sollten gar nicht gestellt werden, da Befrage eigentlich nur die Einzelfragen beantworten, die ihnen am besten zusagen und sowieso nie alle Einzelfragen beantworten.

"Mut zur Naivität!"

Auf die Frage „Was macht einen guten Interviewer aus?“ gab Christian Borschert die folgende Antwort:

  • Empathie
  • Geduld
  • Höflichkeit
  • Rollendistanz zum Thema

Der letzte Punkt seiner Antwort warf dann jedoch die Frage auf, ob Fachwissen für Interviewer bzw. Requirements Engineers hilfreich oder schädlich ist. Darauf antwortete Christian Borschwert: „Manchmal ist es gut, wenn man ein Experte ist, sich aber traut trotzdem wieder naive Fragen zu stellen. Wenn das gelingt, dann ist man einer der Großen.“ Also: „Sei schlau, stell Dich dumm.“ Aus eigener Erfahrung kann ich mich hier uneingeschränkt anschließen. Es lohnt sich eigentlich immer auch grundlegende Konzepte noch einmal zu klären. So sollte man nicht davor zurückschrecken, z.B. in einem Versicherungsunternehmen noch einmal zu fragen „Was ist eigentlich ein Tarif?“ Darauf folgt leider nicht selten die Antwort „Solche grundsätzlichen Fragen müssen wir hier nicht mehr klären. Jeder von uns weiß, was ein Tarif ist.“ Lassen sie sich nicht abschrecken und fragen sie ruhig weiter nach: „OK, dann erklären Sie es mir bitte dennoch einmal. Ich kenne mich in Ihrer Domäne nicht so gut aus.“ Meist stellt sich dann heraus, dass es doch nicht so klar ist, was ein Tarif tatsächlich ist. Sollten mehrere Personen an der Befragung teilnehmen, so haben diese fast immer ein unterschiedliches Verständnis, selbst (oder gerade) von grundsätzlichen und vermeidlich einfachen Dingen. Es lohnt sich immer mutig zu sein und naive Fragen zu stellen.

RE ist wie Autofarhen

In seinem tollen Vortrag „Kultur, Methode, Werkzeug – Drei Bausteine effektiver Anforderungserhebung“ verglich Sebastian Adam (Osseno Software GmbH) Requirements Engineering mit einer Autofahrt von Kaiserslautern nach Leipzig. Auf äußerst unterhaltsame Weise veranschaulichte er die Herausforderungen und Entscheidungen, die beim Aufsetzen und der Durchführung eines unternehmensspezifischen Requirements Engineerings getroffen werden müssen. Immer wieder wurde der Vergleich zu einer Autofahrt gezogen:

  • Auto = Tool / Methode:
    Man kann einen Laster, einen Kombi oder einen Sportwagen verwenden. Mit allen Fahrzeugen (Tools) kommt man ans Ziel. Jedoch hat jeder Autotyp vor und Nachteile. Wenn man genug Zeit hat, kann man sogar mit dem Fahrrad fahren und die Landschaft genießen. Möchte man weniger Aufwand betreiben, kann man auch mit der Bahn fahren (= einen Dienstleister beauftragen).
  • Straßenbeschaffenheit = Firmenkultur (bzgl. RE)
    Man kann über Autobahnen, Landstraßen oder Feldwege ans Ziel kommen. Genauso kann eine Firmenkultur die Arbeiten im Requirements Engineering beschleunigen oder verlangsamen.
  • Strecke = Prozess
    Viele Wege führen ans Ziel bzw. im Beispiel führen viele Wege von Kaiserslautern nach Leipzig. Es gibt auch nicht den einen besten Weg, alle haben ihre Vor- und Nachteile.
  • Ziel (z.B. Leipzig) = Produkt-/ Projektumfang

Alle vier Punkte müssen jedoch zusammenpassen und aufeinander abgestimmt. Zwar kann man sicherlich mit einem Ferrari über Feldwege von Kaiserslautern nach Leipzig fahren, aber wer will das schon? Sebastian Adam stellte zudem die provokante Frage (natürlich in Bezug auf RE): „Würden Sie mit jemanden von Kaiserslautern nach Leipzig fahren, der keinen Führerschein hat, nicht weiß wo Leipzig ist, nie in einer Fahrschule war und nur sehr selten Auto fährt?“

"Fahren ohne Navigationssystem?"

Ein wichtiger Punkt fehlt jedoch im obigen Vergleich. Wenn wir heute unterwegs sind, möchten wir unser Navigationssystem nicht mehr vermissen. Das Navigationssystem sagt uns genau, wo wir gerade sind, wie lange es noch dauert und wann wir wohin abbiegen müssen. Zudem reagiert unser Navigationssystem auf unvorhergesehene Probleme und bietet uns alternative Routen an. Außerdem bringt uns unser Navigationssystem immer wieder auf die Stecke zurück, falls wir einen kurzen Abstecher gemacht haben. Aber wo ist das Navigationssystem fürs Requirements Engineering? Genau dieser Frage hat sich das Fraunhofer IESE Spin-Off OSSENO angenommen, das Sebastian Adam mit seinen beiden Kollegen Norman Riegel und Özgür Ünalan gegründet hat.

"Flüssige Informationen versichern!"

Mit seinem enthusiastischen Vortrag „Von der Idee bis zum Code: Flüssige Anforderungen fließen besser“ eröffnete Kurt Schneider (Leibniz Universität Hannover) den zweiten Tag der Veranstaltung. Insbesondere ging es dabei um die Erstellung von Informationsflussmodellen mit der FLOW (kein Akronym) Notation. Dabei unterscheidet man feste und flüssige Informationen. Feste Informationen (z.B. Dokumente, Bilder, Mitschriften, …) haben den Vorteil, dass sie langfristig zugänglich sind, an viele Empfänger weitergegeben werden können, und vor allem können Dritte ohne Hilfe etwas damit anfangen. Ein großer Nachteil ist jedoch, dass die Erstellung und auch der Abruf (z.B. das Auffinden) von festen Informationen sehr viel Zeit kostet. Flüssige Informationen sind nicht persistiert und somit nur in den Köpfen von Mitarbeitern vorhanden. Diese können jedoch schnell und effizient übergeben werden. Nachteilig ist jedoch, dass diese Informationen an Individuen gebunden sind, kapazitätsbeschränkt sind und mit der Zeit „versickern“. Bei der Informationsflussmodellierung mit der FLOW Notation wird für jede Information angegeben, ob diese fest oder flüssig ist. Kurt Schneider gibt auch nicht vor, wie flüssig oder wie fest ein Informationsfluss sein sollte. Sieht man sich jedoch einen Informationsfluss an, so ist oft leicht zu erkennen, welche Abschnitte „verflüssigt“ werden sollten, da sie zu starr und unflexibel sind. Genauso leicht ist zu erkennen, welche Abschnitte „verfestigt“ werden sollten.

"Informationen mit Video verfestigen."

Wenn es ums „Verfestigen“ geht, sollten wir nicht immer gleich an epische Dokumente denken. Informationen können auch auf andere Art persistiert werden. Kurz Schneider schlägt hierzu auch vor, Videos zu verwenden. Videos können auf effiziente Art und Weise Dokumente ersetzen. Dem kann ich mich nur anschließen. Auch wir haben schon sehr positive Erfahrungen mit Videos gemacht. Dabei ist ganz wichtig, dass diese Videos nicht OSCAR-reif gespielt, gedreht, geschnitten und produziert werden müssen. Dem Verwendungszweck angemessen können auch einfach erstellte Videos einen großen Nutzen bringen. Es muss aber auch nicht immer (gleich) Video sein. Ich bevorzuge beispielsweise auch Fotoprotokolle von Meetings. Einfach die Whiteboards, Flipcharts oder sonstigen Ergebnisse, die im Meeting erarbeitet wurden abfotografieren und in einem PDF-Dokument zusammenfassen. Der Aufwand einer manuellen Digitalisierung (d.h. Abtippen der Bilder) bietet oft keinen Mehrwert, der den Aufwand rechtfertigt.

Alles in allem war es wieder mal eine tolle Veranstaltung bei den Softwareforen. Ich freue mich schon auf meinen nächsten Besuch in Leipzig.

Betroffenheit und Business Artists (BITKOM UUX)

Brandenburger Tor, angestraht mit Herzen und  "We love Berlin"  beim Festival of Light

Ich komme gerade vom BITKOM UUX Fachgruppentreffen in Berlin und warte am Flughafen Tegel auf meinen Rückflug. Die Teilnahme hat sich voll und ganz gelohnt. Zum angekündigten Streitgespräch kam es jedoch nicht. Im Großen und Ganzen waren sich die Teilnehmer einig, obwohl sehr viel und auch sehr emotional diskutiert wurde. Deutlich mehr als bei ähnlichen Veranstaltungen, vor allem sobald das Thema Scrum oder Design Thinking angesprochen wurde.

"Betroffenheit hervorrufen!"

Es wurden zwar unterschiedlichste Themen rund um das Thema Usability und User Experience diskutiert, in jedem Vortrag oder der zugehörigen Diskussion wurde jedoch auf die eine oder andere Art über die Evaluation von Usability und UX gesprochen: Wann sollte man mit welcher Methode und wie oft evaluieren? Ulf Schubert (DATEV) hat hierzu etwas Interessantes erzählt. Bei der DATEV muss das gesamte Entwicklungsteam während einer Usability Evaluation anwesend sein. Es sind somit nicht nur die Qualitätssicherungs- und Usability Experten anwesend, sondern alle an der Entwicklung beteiligten Personen. Das Team kann die Testnutzer durch eine Scheibe im Usability Labor beobachten. So bekommt jeder im Team direkt mit, sobald ein Testnutzer ein Problem mit der Benutzung hat. Kommt ein Testnutzer in größere Schwierigkeiten bei der Benutzung, so löst das beim anwesenden Projektteam Betroffenheit aus. Genau das ist das Ziel von Ulf Schubert: „Im Projektteam soll Betroffenheit hervorgerufen werden.“ Ich habe auch schon die Erfahrung gemacht, dass man deutlich besseres Verständnis im Projektteam erreicht, wenn man Videos von Problemen während der Nutzung von Testnutzern zeigt und nicht nur die Anzahl von Problemen in einer Tabelle listet. Zwar hört sich „18 von 20 Nutzern haben das Produkt nicht auf die intendierte Art und Weise gestartet“ auch nicht gerade gut an, zeigt man aber einen Video-Zusammenschnitt dieser 18 (oder 20) Starts, so stellt sich Betroffenheit und anschließend Verständnis im Projektteam viel schneller und eindringlicher ein. Nach Aussage von Ulf Schubert, funktioniert es aber noch besser, wenn das Projektteam live beim Test mit anwesend ist. Das Projektteam hat auch immer Whiteboards zur Verfügung, um direkt Verbesserungsvorschläge zu diskutieren. Natürlich nur untereinander und nicht mit den Testnutzern. Weitere Tipps von Ulf Schubert gibt es in seinem User Experience Blog. Er hat auch zwei Beträge zum Fachgruppentreffen verfasst (Vormittag, Nachmittag).

"UX Testing - Quo Vadis?"

Eine weitere Interessante Frage, die diskutiert wurde ist: Wer führt zukünftig eigentlich UX Tests durch? Momentan liegt diese Kompetenz hautsächlich bei Beratungshäusern und Usability/UX Agenturen. Derzeit bauen aber immer mehr Design Agenturen diese Kompetenz auf und bieten auch UX Tests an. Hinzu kommt, dass immer mehr Unternehmen eigene UX Test-Kompetenz aufbauen, um die Evaluation selbst durchführen zu können. Immer öfter werden UX Test sogar im unternehmenseigenen UX Labor durchgeführt. Wohin sich das entwickelt, werden wir in den nächsten Jahren feststellen. Es bleibt also spannend.

"Die Erotik-Branche schiebt neue Technologien an."

Mit seinem Vortrag „Do you understand me? Supernatural and innovative interactions“ eröffnete Sascha Wolter (Deutsche Telekom) das Fachgruppentreffen fulminant. Wer die Gelegenheit hat, sollte sich unbedingt einmal eine Präsentation von Sascha Wolter ansehen (hier stehen seine Vortragstermine). Voller Energie und Enthusiasmus berichtete er vom Internet of Things (IoT). Interessant fand ich seine Aussage „Die Erotik-Branche schiebt neue Technologien an.“ Das galt für die das Internet, die DVD, HD-Video, usw. „Als nächstes ist wohl das IoT dran. Es ist unglaublich, was es da schon alles gibt.“

Wenn es um neue Interaktionsmöglichkeiten geht, es ist es wichtig, dass man nicht nur darüber redet, sondern diese unbedingt persönlich ausprobiert. Nur dann kann man wirklich auch wirklich darüber reden. Entwickelt man selbst gerade eine neue Interaktionsform, dann sollte man diese unbedingt prototypisch umsetzen und ausprobieren. Das gilt nicht nur für die Software, sondern auch für die zugehörige Hardware. Es muss ja nicht immer gleich perfekt sein. 3D Drucker, Bausätze und ähnliche Hilfsmittel unterstützen uns heute immer mehr dabei. Sascha Wolter ist ein großer Fan vom Ausprobieren und hat z.B. auch das Autofahren mit einer Blackbox seiner Versicherung getestet, die guten Autofahrern bessere Tarife verspricht: „Ich probiere das alles mal aus und sehe mir an, wozu das führt und erziehe meine Kinder zu einem bewussten Umgang mit Daten.“

Besonders wenn es um das IoT geht bedauert Sascha Wolter, dass die Systeme immer noch zu wenig Empathie besitzen. Wir können heute jede Lampe in jedem Raum unserer Wohnung oder unseres Hauses dazu bringen, genau das richtige Farbschema zu erzeugen, das am besten zu unserer momentanen Gemütslage passt. Allerdings müssen wir dieses Farbschema noch selbst auswählen. Die Systeme können unsere Gemütslage momentan noch nicht ausreichend gut erkennen. Die notwendige Technologie ist hierzu wahrscheinlich sogar schon vorhanden. So gibt es beispielsweise in Japan Getränkeautomaten, die mit einfachen Sensoren die Gemütslage den Käufers (vorgeben zu) erkennen und ein passendes Getränk auswählen.

"Business Artists"

Am Nachmittag hat Dirk Dobiéy (SAP) mit „Learning from creative disciplines for better outcomes in business and society“ eine weitere beeindruckende Präsentation gehalten. „Es wird immer mehr automatisiert, nicht nur der Börsenhandel, sondern sogar die Berichte über den Börsenhandel. Immer mehr Wissensarbeiter werden automatisiert. Welche Eigenschaften müssen wir denn überhaupt zukünftig haben?“ Dirk Dobiéy und seine Kollegen von Age of Artist glauben, dass solche Eigenschaften in künstlerischen Bereichen gefunden werden können und haben mit Künstlern aus unterschiedlichsten Bereichen gesprochen. Dabei haben sie versucht herauszufinden, was Künstler ausmacht, was sie antreibt und ob es gemeinsame Eigenschaften gibt. Diese Eigenschaften werden dann immer in Bezug oder besser in Kontrast zum momentanen Business-Alltag gesetzt. Um wieder das Beispiel der Evaluation aufzugreifen, ist ihnen beispielsweise aufgefallen, dass in der Geschäftswelt leider immer noch oft gesagt wird „Das gefällt mir nicht!“ oder „Ich würde das nicht so machen!“. Künstler sprechen in einer Evaluation subjektiver und emotionaler „Ich sehe hier…“ oder „Ich fühle dabei…“. Dirk Dobiéy gibt folgende Eigenschaften von Künstlern an, die sie von Geschäftsleuten unterscheiden:

  • Planning by Doing. Making to Learn.
  • Exploration without Intention.
  • Substantial Amounts of Search and Reflection.
  • Accepting Ambiguity and Crisis.
  • Appreciating Feeling and Emotions.
  • Everything is a Derivative: Finding again the New.
  • Non-Linear.

Zudem gibt Dirk Dobiéy folgende Eigenschaften an, die wir entwickeln müssen, um „Business Artists“ zu sein:

  • Observation & Listening
  • Dialogue & Conversation
  • Exploring & Deconstructing
  • Abstracting & Simplification
  • Generating Ideas & Experimenting
  • Problem Solving
  • Collaboration & Cooperating
  • Giving Feedback & Dealing with Critique
  • Reframing & Improvising
  • Designing & Performing

Knowledge-Worker benötigen schon heute aber vor allem in der Zukunft andere Fähigkeiten, vor allem Soft Skills. Es reicht zudem nicht aus, nur einen gut ausgeprägten Soft Skill zu haben, sondern wir werden immer mehr beherrschen müssen. Ob es genau diese Skills sind, die im Vortrag angesprochen wurden ist dabei gar nicht so wichtig. Der vorgestellte Ansatz, bei Künstlern nach solche Eigenschaften zu suchen, ist jedoch sehr spannend.

Ich freue mich schon auf das nächste UUX Fachgruppentreffen, das wohl noch dieses Jahr stattfinden wird.

Architekten im Aufzug (SATURN 2015)

Hafen von Baltimore

Die SATURN 2015 des Software Engineering Institute (SEI) fand vom 27. bis 30. April in Baltimore statt. Die Konferenz war mit mehr als 200 Teilnehmern die bestbesuchte SATURN bisher und wurde ihrem Anspruch, eine Community für Praktiker zu sein, vollends gerecht. Eine gelungene Mischung aus Tutorials, eingeladenen Vorträgen, Keynotes und lustigen Events machte die Entscheidung schwierig, welche Session man am besten besuchen sollte.

Inhaltliche Schwerpunkte waren diese Themen:

  • DevOps und Microservices
  • Architektur im Spannungsfeld zwischen Business und Entwicklern
  • Technical Debt und Modernisierung
  • Agilität und Architektur

"Microservices & DevOps" - Time-to-Market  - Continuous Delivery

Netflix ist derzeit das meistzitierte Beispiel für den erfolgreichen Einsatz von Microservices. Getrieben durch Anforderungen wie niedrige Time-to-Market, schnelle Releasefähigkeit (Continuous Delivery) und hoher Parallelisierung der Entwicklung haben sich Microservices entwickelt und sind weiter auf dem Vormarsch.

Dabei sind Microservices weit mehr als ein weiterentwickelter Architekturstil (basierend auf Service-Orientierung), zumindest dann, wenn die genannten Anforderungen wirklich erreicht werden sollen. Microservices machen sehr stark deutlich, wie sehr es auf das Zusammenspiel von Systemarchitektur, Organisationsstruktur und Prozessen ankommt. Gemäß Conway’s Law gibt es eine Abstimmung zwischen Systemstruktur und Organisationsstruktur, nämlich die Zuordnung von Verantwortlichkeiten für Microservices auf Teams. Darüber hinaus ist dann ein Team nicht nur für die Entwicklung, sondern auch den Betrieb des Services zuständig, was dann unter dem Begriff DevOps bekannt ist. Dadurch dass mittlerweile die komplette Betriebsinfrastruktur als Cloud-Service bezogen werden kann, können sich die Entwicklungsteams somit rein auf den Applikationsbetrieb fokussieren.

Len Bass zeigte auf, was architekturell beachtet werden muss, um Microservices und DevOps umzusetzen, z.B. das Deployment von Microservices, die Abbildung auf Teamstrukturen oder der Umgang mit Upgrades,. Sam Newman (ThoughtWorks) stellte Prinzipien vor, die bei der Umsetzung von Microservices helfen, z.B. Modellierung nach Business Domains, Kultur für Automatisierung, Dezentralisierung, unabhängiges Deployment, Fehlerisolation und hohe Beobachtbarkeit.

Ein weiterer eng mit Microservices und DevOps verbundener Trend ist der Einsatz von Containern, in denen Ausführungsumgebung und Applikation gepackaged sind und dann einfach nur komplett auf Hardware deployed werden können (z.B. mit Docker). Dieser Trend setzt auf dem schon länger anhaltenden Trend zur Virtualisierung auf. Ein Vortrag von Google gab Einblicke in die Praktiken bei Google, wie dort die Verwaltung von Hardware und Infrastruktur durchgeführt wird. Große Teams sind nur für die Entwicklung Bereitstellung der Google-eigenen Infrastruktur zuständig, mit Hilfe derer dann riesige Mengen von Maschinen automatisch mit der richtigen Software versorgt werden können. Dazu kommen dann ganze „Produktionslinien“ zum Einsatz, um die entsprechend konfigurierten Container zu erzeugen („Image Bakery“). Unter dem Stichwort „Immutable Infrastructure“ versteht Google, dass solche Container nie wieder verändert, sondern immer wieder neu erzeugt werden.

Anhand der Beispiele Netflix, Google, etc. wird klar, dass sich insbesondere sehr große Firmen aus dem Internetbusiness derzeit leisten können, so massiv in die umgebende Infrastruktur und die Prozesse zu investieren, um Qualitätsattribute wie Time-To-Market zu erreichen. Trotzdem wird durch die immer besseren Cloudangebote auch ermöglicht, dass auch kleinere Firmen davon profitieren können.

Die Diskussion um Microservices war so stark präsent auf der SATURN, dass sie sich teilweise zum Running Gag entwickelte. Simon Brown (selbständiger Berater) hat das Thema in seinem Vortrag auch aufgegriffen und folgendermaßen diskutiert: „Wie möchten Firmen, die derzeit noch nicht einmal ihr System richtig strukturiert bekommen, das komplexe Geflecht aus Services, Prozessen und Organisationsstruktur meistern?“. Microservices kann man nicht als Technologie kaufen und man kann sie nicht von heute auf morgen einführen: Eine Organisation muss eine entsprechende Reife in der Architektur, in der Entwicklungsorganisation und in den Prozessen aufbauen und aufeinander abstimmen.

"Architektur im Spannungsfeld zwischen Business und Entwicklern"

Gregor Hohpe (Allianz) charakterisierte in seiner Keynote einen Architekten unter anderem dadurch, dass er im Aufzug zwischen verschiedenen Ebenen eines Unternehmens unterwegs ist, die im Extremfall vom Vorstand bis zum einzelnen Entwickler reichen. Dabei ist es Aufgabe des Architekten, sich an die Bedürfnisse der jeweiligen Stakeholder anzupassen und mit Ihnen in Ihrer Sprache zu kommunizieren.

Jochem Schulenklopper (inspearit) stieg dazu provokant ein: „Why they just don’t get it: Communicating Architecture to Business Stakeholders“. Genauso provokant ging es weiter: Weil die Architekten es ihnen nicht richtig erklären können. Er berichtete von Architekten, die sich einfach nicht auf die Sprache von Nicht-Informatikern einlassen wollen und keine Empathie für ihr Zielpublikum haben. Er zeigte Vorschläge von Darstellungsformen, die sich an der Sprache von Managern orientieren. Insbesondere hielt er ein Plädoyer dafür, dass Kommunikation eine so essentielle Aufgabe von Architekten ist, dass man den Aufwand nicht scheuen darf, für einzelne Zielgruppen und Vorträge individuell angepasste Darstellungen zu erarbeiten. Wiederverwendung von Diagrammen aus dem Modellierungstool ist hingegen oft nicht die richtige Wahl.

Eltjo Poort (CGI) arbeitete auch die Beziehung von Architekten zum Management heraus. In seinem Vortrag legte er insbesondere Wert auf die Kommunikation von Wert und Risiken, die sich aus Architekturentscheidungen ergeben und für Managemententscheidungen besonders relevant sind.

Simon Brown betonte in seinem Vortrag „Software Architecture as Code“ besonders die Beziehung zwischen Architektur und Entwicklern und stellte die Entwickler als die wichtigste Zielgruppe von Architektur heraus, weil sie die geplante Architektur ja umsetzen müssen. Er bemängelte, dass sehr häufig in der Praxis Architekturdiagramme erzeugt werden, die sehr schwer bis gar nicht auf den Code abzubilden sind, z.B. weil sie nur Laufzeitstrukturen zeigen, aber keine Sicht auf die Implementierung. Mit seinen 4Cs (Context, Container, Component, Class) stellte Simon seinen Ansatz vor, um die Lücke zwischen Architektur und Code überwindbar zu halten. Dabei stellte er die Wichtigkeit von Architecture-Evident Coding Styles heraus, die es zum expliziten Ziel haben, eine erkennbare Abbildung der Architektur im Code zu erzeugen. Simons Ansatz erfordert in der Praxis allerdings auch eine Ergänzung um Laufzeitaspekte, Datenaspekte, etc., die nicht Bestandteil des Vortrags waren.

"Technical Debt"

In der Praxis sind technische Schulden nicht zu vermeiden: Es geht nur um die Frage, wie eine Firma damit umgeht. Ipek Ozkaya (SEI) und Robert Nord (SEI) hielten dazu ein Tutorial, in dem sie das strategische Management von technischen Schulden beleuchteten.

Technische Schulden können vielerlei Ausprägung haben, z.B. schlechte Codequalität oder auch mangelnde Dokumentation. Die schlimmsten Auswirkungen (weil am schwierigsten und aufwendigsten zu beheben) haben aber Defizite in der Architektur.

Häufig sind technische Schulden das Ergebnis davon, dass schnelle Auslieferung Vorrang hatte vor langfristiger Qualität. Wenn dieser Kompromiss gemacht wird, dann sollte er zumindest bewusst gemacht werden. An dieser Stelle kommt Architekten eine wichtige Rolle zu: Sie müssen sich häufig dafür einsetzen, dass nicht zu viele technische Schulden gemacht werden und regelmäßig aufgeräumt wird („Schulden zurückzahlen“). Insbesondere agile Entwicklungsorganisationen legen häufig zu viel Wert auf schnelle Featureproduktion, mit dem Ergebnis dass die Architektur vernachlässigt wird.

Ipek und Robert zeigten im Tutorial Ansätze zur Messung von technischen Schulden und zum aktiven strategischen Management. Dabei kommen bewährte Ansätze aus dem Bereich Softwaremetriken und Architekturbewertung zum Einsatz. Wie immer ist der schwierigste Teil dabei die geeignete Interpretation der Ergebnisse und die Ableitung von Maßnahmen.

"Agilität und Architektur"

Agile Softwareentwicklung hat ihren Weg in sehr viele Entwicklungsorganisationen gefunden. Dass das Anwenden von Methoden wie SCRUM oder Kanban dabei nur die halbe Miete ist, hat sich mittlerweile herumgesprochen. Wie man agile Entwicklung aber um sinnvolle Engineering-Praktiken ergänzt ist weniger offensichtlich. Etliche Sessions haben sich auf dieses Thema fokussiert und Anregungen gegeben.

Eltjo Poort hat in „Agilizing the Architecture Department“ Anregungen gegeben, wie Architekten ihre Arbeit selbst mehr nach agilen Prinzipien gestalten können und wie sie ihre Architekturarbeit in den SCRUM-Prozess einbetten können.

Joseph Yoder (The Refactory) hat in Rückblick auf sein berühmtes Paper „Big Ball of Mud“ agile Prinzipien Revue passieren lassen und aufgezeigt, wie Entwickler mit viel Verantwortungsgefühl zu einer hohen Qualität beitragen können.

Keynotes

Mary Shaw (Carnegie Mellon University) gab eine Keynote „Progress Toward an Engineering Discipline of Software”. Darin verglich sie Software Engineering als Disziplin mit anderen Engineering-Disziplinen wie dem Bauingenieurswesen. Sie skizzierte die Historie der Gebäudearchitektur über mehrere Jahrtausende und analysierte ihre Entwicklung von Handwerk über die Kommerzialisierung bis hin zum heutigen Engineering auf Grundlage vielfältiger wissenschaftlicher Erkenntnisse.

„Es ist kein Engineering, wenn man sich einfach nur so arg anstrengt wie man kann!“ brachte Mary Shaw den Zustand vieler Software Engineering Projekte auf den Punkt. In ihrem Vergleich kam sie zum Schluss, dass die Zielsetzungen von sonstigem Engineering und Software Engineering nahezu Deckungsgleich sind. Woran es beim Software Engineering noch fehlt sind die fundierten Grundlagen zur Unterstützung von Entscheidungen, mit deren Hilfe reproduzierbare Ergebnisse geliefert werden können.

Gregor Hohpe gab eine Keynote „It’s good to be architect”. Darin verglich er einen Softwarearchitekten mit mehreren anderen Rollen: Master Planner (macht im Voraus einen guten Plan), Gärtner (greift lenkend ein und weiß, dass er nicht alles kontrollieren kann), Tour Guide (erklärt anderen die großen Zusammenhänge und manches Detail). Außerdem skizzierte er den „Architektenaufzug“, mit dem er die Fähigkeit eines Architekten beschrieb, sich auf unterschiedlichsten Abstraktionsebenen mit unterschiedlichsten Stakeholdern geeignet zu unterhalten.

Eine weitere Analogie war der Architekt als Barkeeper, der gerne mixt. Damit spielte Gregor auf die Rolle des Architekten an, in einem sich rasch wandelnden Feld aus Business und Technologie Gelegenheiten zu erkennen und Business und Technologie so zu „mixen“, dass neue Geschäftsmöglichkeiten entstehen.

"Never Again Offline"

Zusammen mit Ralf Carbon (John Deere) habe ich einen Vortrag gehalten, in dem wir unsere Erfahrungen zur Wichtigkeiten von Daten beim Design von mobilen Ökosystemen vorgestellt haben. Am Beispiel eines Projekts von John Deere und Fraunhofer IESE haben wir gezeigt, wie vielfältig die Anforderungen und geforderten Qualitätseigenschaften sich um Daten drehen, und welche Architekturentscheidungen dafür getroffen wurden. Der Vortrag zeigte auf, dass Daten beim Architekturdesign zu häufig vernachlässigt werden und erläutert Lessons Learned, die Praktikern helfen können, Daten geeignet zu berücksichtigen.

Lustiges

In einem Battledeck konnten 6 Sprecher einen Vortrag von 6 Minuten halten. Dazu hatten sie 10 Folien, die aber jemand anderes vorbereitet hatte und die sie im Moment des Vortrags zum ersten Mal gesehen haben.

Sam Newman und Simon Brown lieferten sich einen sehr provokanten Schlagabtausch zum Thema pro und contra von Microservices. Dabei ließen sie keine Gelegenheit aus, ihre Position ins Extreme zu ziehen und dem Gegner damit eine Steilvorlage zu liefern.

Len Bass berichtete von den Anfängen seines Berufslebens in den 60ern und war dabei wie immer extrem unterhaltsam und lustig.

Links

© 2017 mibinu

Theme von Anders NorenNach oben ↑