Hinweis: Die aktuelle German Testing Day Konferenz finden Sie hier!

Konferenzprogramm

Die im Konferenzprogramm des GTD digital 2021 angegebenen Uhrzeiten entsprechen der Central European Time (CET).

Per Klick auf "VORTRAG MERKEN" innerhalb der Vortragsbeschreibungen können Sie sich Ihren eigenen Zeitplan zusammenstellen. Sie können diesen über das Symbol in der rechten oberen Ecke jederzeit einsehen.

Gerne können Sie die Konferenzprogramm auch mit Ihren Kollegen und/oder über Social Media teilen.

Der Track+ besteht aus Präsentationen der Sponsoren und unterliegt somit nicht der Qualitätssicherung des Conference Boards.

Bitte beachten Sie, dass es für vereinzelte Workshops eine Teilnehmerbeschränkung gibt. Weitere Infos hierzu finden Sie in den Workshop-Beschreibungen. 

Konferenzprogramm 2021

Nach Tracks filtern
Nach Themen filtern
Alle ausklappen
  • Montag
    03.05.
  • Dienstag
    04.05.
, (Montag, 03.Mai 2021)
09:00 - 10:04
KeyMo
Eröffnung der Konferenz und Keynote: Breaking Illusions with Testing
Eröffnung der Konferenz und Keynote: Breaking Illusions with Testing

As a tester, I don’t break your code, I break your *illusions* about the code. And illusions come in many forms. Illusions may be about the code doing what it’s supposed to; about the product doing what it would need to; about your process being able to deliver with change in mind; people having the skills to deliver well and about the business growing with uninformed risks on the product and the business model around it. 

This talk goes through examples of illusions that need to be broken and skills that you need to build to break them. As a tester, you may have these skills but use them on a scale smaller than their potential. Testing is not just the technical checks but more relevantly it’s about discovering information about threats to value you’re trying to create.

We will address:

  • Types of illusions with examples grounded in the speakers 25 years of hands-on experience as a tester
  • How skills to breaking basic software illusions enable breaking software illusions on organizational scale
  • Hierarchy of disillusionment: how building the right things precedes building things right
Maaret Pyhäjärvi is an exploratory tester extraordinaire with a day-job at Vaisala as Principal Test Engineer. She is an empirical technologist, a tester and a (polyglot) programmer, a catalyst for improvement, a speaker and an author, and a community facilitator. She has been awarded the two prestigious global testing awards, Most Influential Agile Testing Professional Person 2016 (MIATPP) and EuroSTAR Testing Excellence Award (2020), and selected as Top-100 Most Influential in ICT in Finland 2019&2020. She’s spoken at events in 25 countries delivering over 400 sessions. With 25 years of exploratory testing under her belt, she crafts her work role into a mix of hands-on testing and programming, and leading and enabling others. She leads TechVoices enabling new speakers, blogs at https://visible-quality.blogspot.fi and is the author of three books: Ensemble Programming Guidebook, Exploratory Testing and Strong-Style Pair Programming.
Maaret Pyhäjärvi
Maaret Pyhäjärvi
Track: Keynote
Vortrag: KeyMo

Vortrag Teilen

10:05 - 10:35
Pause
Pause
Pause

10:35 - 11:10
Mo 1.1
Self-Healing Tests / Der heilige Gral der Testautomation ... oder doch nur viel Lärm um Nichts?
Self-Healing Tests / Der heilige Gral der Testautomation ... oder doch nur viel Lärm um Nichts?

Self-Healing Tests ist ein Ansatz, bei dem maschinelles Lernen bei der Wartung von automatisierten Tests hilft.

Self-Healing, die Automation der Testautomation, erkennt Änderungen im 'System under Test' und passt die Testdurchführung automatisch an, damit die Tests funktionsfähig bleiben. Kommerzielle Tools, wie TestIM und Tricentis Neo Engine, sind vielversprechend und rechtzeitig auf den Zug aufgesprungen. Es gibt aber auch vielversprechende Open-Source Alternativen, wie Healenium.

Dieser Vortrag erklärt die Pro & Cons von Self-Healing Tests und zeigt anhand eines konkreten Beispiels, die Umsetzung mit der Open-Source Bibliothek Healenium.

Zielpublikum: Tester, Test Automation Engineers, Test Manager, Developer, DevOps Engineers
Vorraussetzungen: keine
Schwierigkeitsgrad: Advanced

Extended Abstract:
Eine der wichtigsten und aufwändigsten Tätigkeiten in der Testautomation, ist die Wartung von Testscripts. Keine anderen Testartefakte beanspruchen so viel wertvolle Zeit und Mühe in der Pflege, wie die zu Code gewordenen Testfälle.

Nun stellt sich die Frage ob es einen Ansatz gibt, in dem sich künstliche Intelligenz gepaart mit Machine Learning, um die Wartung der Testscripts kümmern kann. Die Entwickler der Testscripts hätten so mehr Zeit, sich um die Automation neuer Tests zu kümmern und damit die Testabdeckung durch Testautomation zu erhöhen. Die Antwort auf die Frage lautet: 'Ja, es gibt eine Lösung: Self-Healing Tests'.

Auf den Punkt gebracht ist Self-Healing die Automation der Testautomation. Testwerkzeuge mit Self-Healing Eigenschaften, erkennen Änderungen in der grafischen Benutzeroberfläche und passen die automatisierten Testfälle automatisch an, damit die Tests funktionsfähig bleiben. Kommerzielle Tools wie TestIM , Mabl  & Tricentis Neo-Engine  sind vielversprechend und rechtzeitig auf den Zug aufgesprungen. Es gibt aber auch vielversprechende Open-Source Alternativen wie Healenium.

Der Vortrag erklärt die Grundlagen von Self-Healing Tests und zeigt anhand eines Beispiels die Umsetzung mit der Open-Source Bibliothek Healenium.

Matthias Zax arbeitet als Agile Engineering Coach bei Raiffeisen Bank International AG (RBI). Eigentlich gelernter Software Developer und '#developerByHeart, beschäftigt er sich seit 2018 mit dem Testen von Software mit Schwerpunkt Testautomation im DevOps Umfeld und organisiert die RBI Testautomation Community of Practice.

Matthias Zax
Matthias Zax
Track: Vortrag
Vortrag: Mo 1.1

Vortrag Teilen

10:35 - 11:10
Mo 2.1
Is survival of the fittest only for the fastest?
Is survival of the fittest only for the fastest?

Test automation, continuous integration, pipelines... the need for speed increased exponentially over the last decade.

Applying Darwin's theory, it is quite simple: only the fittest -in this case the fastest- will survive. Traditional, manual testers are like a rhinoceros... in danger of extinction.

But even those fast rages have their shortcomings, like the automation fake news or automation paradox. In this presentation, Wim explains why 'slow' testing is still there and which survival techniques (like Transform to a no-sheep tester, Think glocally) you need as a manual tester to secure your position for the future.

Target Audience: Testers, test managers, technical testers (test automators), stakeholders involved in testing
Prerequisites: None
Level: Basic

Extended Abstract:
The world of testing has evolved a lot over the last decade. Manual testing is under pressure by a lot of fast rages like test automation, CI/CD, pipelines, ... And so one can wonder if traditional manual testers still have their place and will remain relevant within the future.

But those fast rages are not always 'hallelujah'. And that is for me one of the main arguments why manual testing will always remain relevant.

Especially when we look to test automation, it is a fact that this is not always successful. To my opinion, this is due to 3 main reasons: automation fake news, automation blindness and automation paradox. Automation fake news is about the promises -made by tool vendors, test automators to customers, management- but aren't always fully realised in practice. Some examples : unattended testing, one-click automation. Automation blindness is about the tunnel vision test automators have by ignoring questions like 'Which data combinations are relevant to automate? Do we really need to execute all data combinations?'. Furthermore, test reports are not always analysed in depth. Why do we get a fail? Is this an application failure or a failure introduced due to our own automation code?

Another argument for the relevancy of manual testing is the increased complexity of things. This makes it in some cases even not possible or not efficient to automate things (e.g. how do test an airplane?).

But... manual testing has evolved and needs to be adapted to this changing world. For manual testers, this require other or adapted skills.

I see 4 main skills we should have:

- Transform to no-sheep tester

  = stop with complaining like bleating sheeps that we don't have proper, complete requirements or builds are not stable. Instead use those situations by showing your added value as manual tester by applying techniques like exploratory testing, sanity & smoke testing.

- Get a fika

= It is a Swedish tradition to build in fixed moments in the morning and afternoon to drop your work and socialize with colleagues to talk about everything else than work. Manual testers should participate in such fika's because you get indirectly a lot of crucial information that can help you further.

- CRUD the crap

= Just like the English slang expression 'Cut the crap', testers should provide info to the business in a no-nonsense way. No bullshitting and especially no overwhelming the stakeholders by figures. At the end, stakeholders are mainly interested in the fact if the application/software meet the requirements of a C(reate), R(ead), U(pdate), D(elete) test.

- Think glocally (and no, this is not a typo :-)

Manual testers have to oversee the complete picture in complex architecture. Especially with regards to preparation of test data for E2E tests, time travels. In this area they can show off their added value.

Conclusion: survival of the fittest is not about the fastest, but about the smartest both for test automation and manual testing.

For more than 22 years, Wim Demey has been active in software testing and has evolved to a generalist covering different aspects and roles within testing. Driven by versatility and a great eagerness to learn new things, Wim is always looking how and where he can stretch his comfort zone to manage new challenges. He has a special interest in more technical topics like performance testing, test management tools and AI.
Wim Demey
Wim Demey
Track: Vortrag
Vortrag: Mo 2.1

Vortrag Teilen

10:35 - 11:10
Mo 3.1
Lean Quality Management als hidden Champion - »Testing auf dem Weg in ein „neues Level“«
Lean Quality Management als hidden Champion - »Testing auf dem Weg in ein „neues Level“«

„Wo ist unser Test geblieben?“ – Alle sprechen von Qualität, der Wichtigkeit der IT sowie Automatisierung. Ist Lean Quality Management die Antwort auf die Frage nach der Zukunft des Tests? Ja, auf jeden Fall! Die Arbeit in unseren Qualitätsdepartments hat sich in den letzten Jahren und Jahrzehnten stetig weiterentwickelt und steht nun davor, wieder eine neue Schwelle zu erreichen.

Wir möchten Ihnen in diesem Vortrag einen Überblick und Einblicke in die zukünftigen Werkzeuge, Herausforderungen und Methoden des Testens geben. In diesem Zusammenhang fällt immer wieder der Begriff „Lean Quality Management“. In unseren Augen ist Lean Quality Management der „Hidden Champion“ – der „verborgene/unsichtbare Champion“ auf dem Weg zum Idealzustand der Qualitätssicherung und der Enabler für „Business Agility”, „Organisational Agility“ und „Enterprise Agility“.

Nico Liedl ist Quality Engineer und Advisor mit Schwerpunkt auf agilem Qualitätsmanagement, Testautomatisierung, Prozessverbesserung und organisatorischem Wandel mit Erfahrung in verschiedenen komplexen Großprojekten. Als Teammitglied, Scrum Master, Teststratege, Releasemanager und Trainer hat er praktische Erfahrung und theoretisches Fachwissen zu bieten und möchte diese Erfahrungen mit einem breiten Publikum teilen. Darüber hinaus ist er als Sprecher auf Fachkonferenzen und Autor von -artikeln stets im regen Austausch mit der Agilen Tester Community.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/nico.liedl

Viviane Hennecke ist Agile Quality „Coachsultant" mit Schwerpunkt auf strukturierten Verbesserungen von Qualitätsprozessen in skalierten agilen Projekten. Testing-Erfahrung wird mit ihrem Background im Kommunikationsmanagement kombiniert, um die Prozesse zu definieren, angemessen an eine breite Masse auszurollen und zum Leben zu bringen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Viviane.Hennecke

Nico Liedl, Viviane Hennecke
Nico Liedl, Viviane Hennecke
Track: Track+
Vortrag: Mo 3.1

Vortrag Teilen

10:35 - 12:00
Mo 4.1
Workshop: Unit Tests-ein Anti-Pattern für die Wolken #slideless
Workshop: Unit Tests-ein Anti-Pattern für die Wolken #slideless

Wie tested man cloud-native Java Anwendungen mit dem maximalen Benefit und dem minimalen Aufwand? In cloud-native, microservice Architekturen werden Unit Tests überbewertet und Blackbox Tests vernachlässigt. Das führt zu instabilen System in der Produktion, welche eine 80%-100% Code Coverage vorweisen können. In dieser Session werde ich ein Microservice “Black Box” Test Driven implementieren und auf die Fragen der Teilnehmer in Echtzeit eingehen.

Zielpublikum: Java Entwickler
Vorraussetzungen: Kenntnisse der serverseitigen Programmierung
Schwierigkeitsgrad: Advanced

Entwickler, Consultant, manchmal Konferenzsprecher, Autor und Java / Jakarta (SE/EE) / MicroProfile Enthusiast Adam Bien (adambien.blog) arbeitet mit Java seit JDK 1.0, JavaScript seit LiveScript und hat immer noch sehr viel Spass am Programmieren. Adam veranstaltet regelmässig virtuelle Java / WebStandards / JavaScript Workshops (http://airhacks.live).
Adam Bien
Adam Bien
Track: Workshop
Vortrag: Mo 4.1

Vortrag Teilen

11:25 - 12:00
Mo 1.2
Angebotsphase und Testen - das gehört zusammen!
Angebotsphase und Testen - das gehört zusammen!

Warum ist es so wichtig das der Test schon bei der Bearbeitung von Angeboten beteiligt ist ?

In diesem Vortrag soll dargestellt werden wie ein Angebotsprozess aussehen sollte. Leider haben wir manchmal folgende Situation  - Telefonanruf: 'morgen müssen wir dem Kunden unser Angebot für ein neues Projekt übergeben. '

Schon in der Angebotsphase müssen viele Fragen beantwortet werden die grossen Anteil an den Gesamtkosten des neuen Projektes haben werden:

Wie soll das angebotene Produkt qualifiziert werden ?

Welche Testverfahren können wir wiederverwenden ?

Was muss alles getestet werden ?

Was ist dem Kunden wichtig ?

Zielpublikum: Projektleiter, Testmanager, Entscheider,Tester
Vorraussetzungen: Projekterfahrung
Schwierigkeitsgrad: Basic

Extended Abstract:
Bei der Ausarbeitung von Angeboten wurde in der Vergangenheit meistens nur die Entwicklungsabteilung gebeten entsprechende Aufwandsabschätzungen zu erstellen.

Testaufwände wurden aus vergangenen Projekten übernommen.

Dies führte jedoch bei einigen Projekten dazu das, z. B. aufgrund von geänderten Hardwarebausteinen, die Aufwände unterschätzt wurden.

Aus diesem Grunde wurde die frühzeitige Einbeziehung des Testintegrationsmanagements (TIM) beschlossen, d.h. die TIMs erhalten die Angebotsanfrage zur gleichen Zeit wie die Entwicklungsabteilung. Die TIMs stimmen sich mit den Seniortestern des entsprechenden Aufgabengebietes ab um realistische Aufwandsabschätzungen erstellen zu können.

Bei der Analyse der Angebote ist es auch wichtig Daten aus vergangenen Projekten zu haben, d.h. die Tester dokumentieren ihre Testaufwände in einer Testdatenbank.

Zusätzlich wurden nach Projektabschluss von den TIMs Budgetanalysen erstellt um zu erkennen ob, und wenn ja warum, bestimmte Testaufwände unterschätzt wurden.

Wichtig ist hier auch ein 'lessons learned'-Prozess (auch in der Testabteilung mit der Beteiligung des gesamten Testteams), durch den der Angebotsprozess verbessert werden kann.

Es zeigte sich das auch Aufwände für die Angebotserstellung eingeplant werden müssen. Ca. 10% der monatlichen Arbeitszeit ist für die Testabteilung zur Bearbeitung von Angeboten eingeplant.

Dr. Erhardt Wunderlich arbeitet bei Alstom im Center of Expertise an dem Thema Tools and Processes. Dr. Wunderlich hat über 30 Jahre Erfahrung in Software-Entwicklung und -test in verschiedenen Branchen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/erhardt.wunderlich

Erhardt Wunderlich
Erhardt Wunderlich
Track: Vortrag
Vortrag: Mo 1.2

Vortrag Teilen

11:25 - 12:00
Mo 2.2
Tests that Spark Joy!
Tests that Spark Joy!

You're tasked to work on an existing test automation suite, and you note usual problems:

  • Slows down the development process
  • Test addition is an afterthought in the dev cycle
  • Doesn't point to the problem area in code on failure
  • Doesn't actually give you regression confidence
  • Rely on just one person to fix or run it (you!)
  • Tests get or 'are tagged to be' ignored

You need help. And the help you need is not creating a new framework, but rather learning to tidy it up so that instead of problems, your tests spark joy.

In this talk, we learn to implement rules/techniques to achieve test atomicity, efficient DOM structure naming for tests, tagging XHR calls, the folder structure for better readability and 'what tests to keep' rather than decide 'what tests to discard' to keep your suite clean, lean and mean. You'll learn that your tests, like mine, can spark joy.

Target Audience: Developers and test engineers who want to develop or improve their test automation code
Prerequisites: some background in software development processes and basic tools such as version control systems, IDEs, etc. as well as  an understanding of some automation technology, for example, selenium, RPA or cypress and how they work
Level: Advanced

Divya Rakhiani has more than 8 years of experience in Quality Assurance working in a startup like Beanworks, Service companies like Infosys and Thoughtworks, and Product companies like Dell EMC. She currently heads the Quality Engineering department at a startup called Beanworks that specializes in automating the tedious and paper-heavy accounting process. It's rated the 13th best startup in the Vancouver tech market. Divya sees herself today as a new immigrant to Canada and is building her career helping QA teams to use technologies like UI automation using cypress/selenium, visual testing and CI/CD for each code deployment.
She is passionate about preaching quality as a mindset in the software development cycle and not a stage. She was an active member of the Vodqa meetup group at Thoughtworks, India and has spoken at various meetups in Delhi, India about Testing in Micro-services, contract testing, test pyramid, service virtualization, and automation best practices. When not working, Divya likes to lift weights at the gym! #girlswhocodeandlift. Most of her weekends are spent --running at the beautiful Stanley Park, walking the dog or meal prepping and daydreaming about all the shoes she can buy ;)
Divya Rakhiani
Divya Rakhiani
Track: Vortrag
Vortrag: Mo 2.2

Vortrag Teilen

11:25 - 12:00
Mo 3.2
Exploratives Testen im regulierten Umfeld ist nicht möglich! ...oder doch?
Exploratives Testen im regulierten Umfeld ist nicht möglich! ...oder doch?

<provokative Statements>Im regulierten Umfeld sind die Anforderungen an Test- und Qualitätssicherung so hoch, dass man dies nicht mit explorativen Testmethoden lösen kann.</provokative Statements><Lösungsansatz>Unser Ansatz: Sessionbasiertes Testmanagement. Anhand unserer bisherigen Erfahrungen zeigen wir auf, wie man explorative Testmethoden auch im regulierten Umfeld einsetzen kann. Gemeinsam tauchen wir in unser Projektvorgehen ab und zeigen klassische Stolpersteine auf.</Lösungsansatz>

Target Audience: Tester, Testmanager, Product Owner, Scrum Master, Stakeholder, Fachbereich
Prerequisites: Grundlegende Kenntnisse im Testing. Einordnung explorativer Testmethode
Level: Grundlegend / Basic

Extended Abstract:
Wir Beide beschäftigen uns seit langer Zeit mit kollaborativen und explorativen Testmethoden. Da wir nun beide für die Carl Zeiss Digital Innovation GmbH tätig sind, kamen wir natürlich auch direkt im regulierten Umfeld (Medizintechnik) an. Da wir auch hier gerne unsere positiven Erfahrungen mit explorativen Testen einbringen wollten, war der kundenseitige Widerstand sehr groß. Exploratives Testen ist im regulierten Umfeld nicht möglich, zu hoch sind die Anforderungen an Test- und Qualitätssicherung. Dieser Widerstand war unsere Motivation uns genauer mit dem Thema auseinander zu setzen und einen Lösungsansatz zu erarbeiten, wie man auch im regulierten Umfeld explorativ testen kann. Gerne möchten wir unsere Erfahrungen auch an andere Leidensgenossen weitergeben und vielleicht können wir auch den ein oder anderen Weg etwas ebnen.

Benedikt Wörners Leidenschaft ist es, Kunden bei der agilen Transformation zu helfen. Er eröffnet den Kunden neue Wege und Perspektiven, z. B. anhand explorativer und kollaborativer Testmethoden.

Maria Petzold coacht gerne Projektkolleg:innen zu allen QA relevanten Themen. Gerne verwendet sie hierbei auch neue Ansätze, so z. B. die Einführung explorativer Testmethoden im regulierten Umfeld.

Benedikt Wörner, Maria Petzold
Benedikt Wörner, Maria Petzold
Track: Track+
Vortrag: Mo 3.2

Vortrag Teilen

12:00 - 12:30
Mo 5.1
ZEISS Digital Innovation Networking Lounge: Exploratives Testen – Der Test für Faule oder die Krone der Testschöpfung?
ZEISS Digital Innovation Networking Lounge: Exploratives Testen – Der Test für Faule oder die Krone der Testschöpfung?

Wir nutzen und beschäftigen uns bei der ZEISS Digital Innovation seit langer Zeit mit kollaborativen und explorativen Testmethoden. Besonders gefällt uns, dass bei diesen Testmethoden die menschlichen Stärken, die Kreativität und die Kollaboration im Vordergrund stehen. Aber uns sind auch einige Vorurteile über das explorative Testen begegnet.

In unserer Networking Lounge stellen unsere Kollegen Kay Grebenstein, Maria Petzold und Benedikt Wörner die Erfahrungen sowie die speziellen Herausforderungen aus ihren Projekten vor und wir diskutieren gemeinsam mit Ihnen über die unterschiedlichen Blickwinkel auf kollaborative und explorative Testmethoden.

Kay Grebenstein arbeitet als Head of QA für die Business Line Manufacturing Solutions bei der ZEISS Digital Innovation. In seiner Zeit als Testmanager und agiler QA-Coach hat er in den letzten Jahren in Projekten unterschiedlicher fachlicher Domänen (Industrie, Semiconductor, Energie, …) Qualität gesichert und Software getestet.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Kay.Grebenstein

Kay Grebenstein
Kay Grebenstein
Vortrag: Mo 5.1

Vortrag Teilen

12:00 - 13:20
Pause
Pause
Pause

12:15 - 13:15
Lean Coffee
Lean Coffee
Lean Coffee

Sie haben Fragestellungen, die Sie mit anderen Teilnehmer:innen diskutieren möchten? Sie möchten mit Ihrer Erfahrung anderen Teilnehmer:innen eine Perspektive auf Fragen anbieten? Dann sind Sie beim Lean Coffee genau richtig. Denn im Lean Coffee bestimmt die Gruppe, welche Themen für wie lange diskutiert werden, um den maximalen Nutzen des Austauschs zu erreichen. 

Lean Coffee ist ein strukturiertes agenda-loses Meeting-Format, bei dem die Teilnehmer:innen die Tagesordnung durch die Themen, die sie einbringen, selbst bestimmen. 

Treten Sie in den Austausch mit Gleichgesinnten und diskutieren die aktuellen Themen rund um das Thema „Testen", „Qualität“ oder was auch immer in diesem Moment gerade wertvoll ist.

Vortrag: Lean Coffee

Vortrag Teilen

13:20 - 13:55
Mo 1.3
Agiler Tester - Ein neues Berufsbild?
Agiler Tester - Ein neues Berufsbild?

Im Jahr 2017 hat das German Testing Board (GTB) die Broschüre 'Berufsbild Tester' veröffentlicht, welche dem Leser Ideen und Struktur anbietet, in dem anhand von Testaufgaben und Spezialisierungen im Test ein Modell von Rollen mit zugehörigen Kompetenzanforderungen festgelegt wird.

Das Arbeiten in agilen Organisationen, in agilen Projekten und in selbstorganisierten, multidisziplinären Teams und die Idee der Verantwortung des gesamten Teams für Qualität machen es wert, ein eigenes Berufsbild 'Agiler Tester' zu skizzieren.

  • Testen im agilen Kontext
  • Ausprägungen von agilen Rollen im Test
  • Testkompetenzen machen agiles Arbeiten möglich

Zielpublikum: Entwickler, Tester, Spezialisten, Fachbereiche, Führungskräfte
Vorraussetzungen: klassische und agile Projekterfahrung
Schwierigkeitsgrad: Basic

Elke Mai ist Enabler und Unterstützer für Fachbereiche und IT-Abteilungen im Testmanagement. Sie blickt zurück auf jahrzehntelange Erfahrung in Umsetzungsprojekten in den drei deutschen Banksektoren. Durch die Mitarbeit im GTB kann sie Impulse setzen. Als Teilnehmerin von Seminaren und Konferenzen sucht sie aktiv den Austausch zum Thema Softwarequalität und Softwaretest. Für sie ist der Testprozess ein lebendiger Prozess, der von der Zusammenarbeit der Beteiligten lebt.
Elke Mai
Elke Mai
Track: Vortrag
Vortrag: Mo 1.3

Vortrag Teilen

13:20 - 13:55
Mo 2.3
A Story of Ensemble Programming, Testing and Everything
A Story of Ensemble Programming, Testing and Everything

Back in 2016, I heard about this strange new approach of ensemble programming, having the whole team work on the same task, same place, same time, same computer - which was such an unusual idea that it instantly fascinated me. I told my team about it; they surprisingly agreed to give it a try; and it changed our world.

Target Audience: Testers, developers, product owners, UX, business analysts - anyone on a product development team
Prerequisites: None
Level: Basic

Extended Abstract: 

Back in time, I started out as a strong individual contributor. I loved to have a team around me and collaborate with them, but when it came to doing “my part”, I did it only by myself. I was uncomfortable when another one “peeked over my shoulder” to see what I was doing, or when they even wanted to do it together with me.

But then I heard about this strange new approach of ensemble programming, having the whole team work on the same task, same place, same time, same computer - which was such an unusual idea that it instantly fascinated me. I told my team about it; they surprisingly agreed to give it a try; and it changed our world. 

Join us on our journey and see what we discovered along the way. Learn how our ensembling experience helped us to start pairing, on various tasks across “disciplines”. This is our story of how the whole team is growing even closer together, constantly learning from each other, while delivering our best.

Having graduated in sinology, Lisi fell into agile and testing in 2009 and has been infected with the agile bug ever since. She's especially passionate about the whole-team approach to testing and quality as well as the continuous learning mindset behind it. Building great products which deliver value together with great people is what motivates her and keeps her going. She received a lot from the community; now she's giving back by sharing her stories and experience. She tweets as @lisihocke and blogs at www.lisihocke.com. In her free time you can either find her in the gym running after a volleyball, having a good time with her friends or delving into games and stories of any kind.

Elisabeth Hocke
Elisabeth Hocke
Track: Vortrag
Vortrag: Mo 2.3
Themen: Team Work

Vortrag Teilen

13:20 - 13:55
Mo 3.3
Shift Left und Crowdtesting effektiv kombinieren – Wie geht das?
Shift Left und Crowdtesting effektiv kombinieren – Wie geht das?

Wenn Unternehmen das Testen nach links verlagern, erhalten ihre Teams die Möglichkeit, Bugs früher im SDLC abzufangen. Früher eingebaute Quality Gates erhöhen die Abdeckung und es ist weniger wahrscheinlich, dass Bugs Ihre Kunden erreichen. Ein Fehler, der am Ende des SDLC gefunden wird, kann das Hundertfache dessen kosten, was er kostet, wenn er früher im Prozess gefunden wird.

Mit Shift-Links-Tests, die eine höhere Entwicklungsgeschwindigkeit ermöglichen, können Ihre Teams CI/CD unterstützen, der Konkurrenz voraus sein, indem sie neue Funktionen häufiger auf den Markt bringen und beim Release weniger Probleme haben. Jan Wolter (General Manager EU, Applause) geht mit Ihnen eine Checkliste durch, um herauszufinden, ob Ihr interner QA-Prozess Shift-Left-Praktiken verwendet und erklärt, wie Sie Crowdtesting nutzen können, um Ihre Tests nach links zu verlagern.

Jan leitet als General Manager für Applause den europäischen Geschäftsbereich und ist verantwortlich für den Ausbau des Unternehmens im europäischen Markt. Seine Hauptaufgabe besteht darin, sicherzustellen, dass die Ziele von Applause Europe in Bezug auf das Umsatzwachstum und die Kundenakquisition umgesetzt werden. Außerdem sorgt er dafür, dass die Qualität und die Kundenzufriedenheit des Unternehmens auf höchstem Niveau bleiben.

Bevor er zu Applause kam, war Jan CEO und Mitbegründer von testhub, dem deutschen Softwaretesting-Anbieter, das sich im Mai 2014 mit Applause zusammenschloss. Dadurch hat er jahrelange Erfahrung in der Umsetzung und Skalierung von innovativen Softwaretesting-Lösungen für Firmen verschiedenster Bereiche.

Jan besitzt einen Master-Abschluss von der London School of Economics und einen Bachelor von der Universität Mannheim.

Jan Wolter
Jan Wolter
Track: Track+
Vortrag: Mo 3.3

Vortrag Teilen

14:10 - 14:45
Mo 1.4
Professionell Scheitern in 7 Schritten: So ruinieren sie ihre API durch falsches Testen!
Professionell Scheitern in 7 Schritten: So ruinieren sie ihre API durch falsches Testen!

Immer häufiger wird Software als verteiltes System mittels Microservices umgesetzt. Während der Programmcode je Service dabei kompakter und leichter testbar ist, werden die Schnittstellen untereinander eher komplexer und schwer zu testen. Allzu oft werden API Tests vernachlässigt, was zu erhöhter Fehleranfälligkeit und schlechtem API Design führt. Dieser Vortrag zeigt mit einem Augenzwinkern und anhand praktischer Beispiele, welche Fehler sich besonders dazu eignen, APIs aufgrund falscher oder fehlender Tests zu ruinieren. Er soll zum Nachdenken anregen, was man beim API Design und Test in verteilten Systemen alles bedenken sollte.

Zielpublikum: Tester, Entwickler, Architekten
Vorraussetzungen: REST/Messaging APIs, Microservices, Testautomatisierung
Schwierigkeitsgrad: Basic

Extended Abstract:
Immer häufiger werden Softwaresysteme heutzutage als auf Microservices basierende, verteilte Systeme designt, welche sich an den Bounded Contexts der Domäne orientieren. Dabei bringt dieser Architekturansatz neben vielen Vorteilen, wie der leichteren Änderbarkeit einzelner Services und unabhängigerer Entwicklung, auch Herausforderungen durch den höheren Verteilungsgrad mit sich. Ohne Kommunikation zwischen den Services über entsprechende Schnittstellen (APIs) geht es letztlich auch nicht.

Dabei gestaltet sich das Testen jener APIs nicht als trivial, sowohl technologisch als auch aus prozessualen Gesichtspunkten. Schnell wird zum Beispiel der Ruf laut nach integrativen Testumgebungen zur Integration der Schnittstellen. Jedoch widerspricht genau dies der losen Kopplung, die man durch Microservices erreichen wollte.

Dieser Vortrag zeigt mit einem Augenzwinkern und anhand praktischer Beispiele, wo typische Fehlerquellen beim API Testing in verteilten Anwendungen lauern und wie man das Softwaresystem dadurch bestmöglich in den Ruin stürzen kann. Er soll zum Nachdenken anregen, was man beim API Design und Test in verteilten Systemen alles bedenken sollte, um Qualität und Unabhängigkeit zu erhalten.

Frank Scheffler ist Senior Solution Architect und Mitbegründer bei Digital Frontiers. Er verfügt über langjährige Erfahrung als Berater und Coach in den Themen Microservices, Software Quality und agile Transformation.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/frank.scheffler

Florian Pfleiderer beschäftigt sich als Senior Consultant bei Digital Frontiers mit agiler Software-Entwicklung. Seinen Kunden hilft er auf ihrem Weg in die Cloud und berät sie in den Bereichen Architektur, Microservices und Craftsmanship.

Frank Scheffler, Florian Pfleiderer
Frank Scheffler, Florian Pfleiderer
Track: Vortrag
Vortrag: Mo 1.4

Vortrag Teilen

14:10 - 14:45
Mo 2.4
Experience Report on Continuous Transparency in Siemens MindSphere
Experience Report on Continuous Transparency in Siemens MindSphere

We will show and explain how we enabled and supported global transparency on our defined KPIs within the DevOps process in Siemens MindSphere.

Continuous Transparency is targeting all KPIs starting in Portfolio Management, through Scoping, Implementation, Release and Deployment up to Operation and is continuously feeding back information to interested parties.

Besides the technical and business relevance, our key findings were:

The most important benefit of Continuous Transparency is building trust. Not only in your product or solution but also between loosely coupled units that share a common goal and even extending to customers.

Target Audience: Project Manager, R&D, Architects, Operation, Security Experts and Quality Experts.
Prerequisites: Understanding of Cloud, CI/CD and DevOps.
Level: Advanced

Extended Abstract:
We will show and explain how we enabled and supported global transparency on our defined KPIs within the DevOps process in Siemens MindSphere.

Continuous Transparency is targeting all KPIs starting in Portfolio Management, through Scoping, Implementation, Release and Deployment up to Operation and is continuously feeding back information to interested parties.

Besides the technical and business relevance, our key findings were:

The most important benefit of Continuous Transparency is building trust. Not only in your product or solution but also between loosely coupled units that share a common goal and even extending to customers.

We will share our experience on functional and non-functional as well as release and deployment transparency. Additionally, we will give insights into special cases of operational transparency with focus on live data and postmortem analysis. Beyond that, the session will include an overview on recommendations for governance methodologies.

As portfolio manager he aims to enable Siemens companies for their digitalization transformation by conducting applied research, consulting and operational lead, while envisioning the strategic roadmap for related research questions.
As Lead Test Architect in Siemens MindSphere he was responsible for Test Architecture and Infrastructure, leading related international distributed teams and closely collaborating with R&D, QV, Architecture, Security and Operations Management.
Principal Software Architect for Siemens MindSphere focussing on cloud operations. Facilitating large scale secure designs and analytics to power the use cases of tomorrow.
Florian Krautwurm, Tobias Appl
Florian Krautwurm, Tobias Appl
Track: Vortrag
Vortrag: Mo 2.4

Vortrag Teilen

14:10 - 14:45
Mo 3.4
Let the Code Write Itself - How a Codemod Helps You Transition From Protractor to WebdriverIO
Let the Code Write Itself - How a Codemod Helps You Transition From Protractor to WebdriverIO

Any migration from one framework to another is always painful and often contains a lot of manual effort. With the Angular team announcing the end of Protractor many people are now facing exactly that kind of unnecessary and difficult transition to a new testing environment.
The maintenance of large code bases has been a problem for many developers especially in the JS ecosystem. A proven solution for this has been codemods which is a way to transform code at scale in a totally automated way but with human oversight.
In this talk Christian Bromann will explain how WebdriverIO helps folks to move from Protractor to WebdriverIO using a codemod that can transform thousands of test files with a single command. He will explain how codemods work and demonstrate transitioning an example Protractor project written with page objects into WebdriverIO.

Christian Bromann is a member of the Open Source Program Office at Sauce Labs and is working on various open source projects related to test automation and Node.js. He represents the company as Advisory Committee representative at the W3C and the WebdriverIO project as core contributor in the OpenJS Foundation Cross-Project Council. In the past he has been leading various product initiatives at Sauce Labs including extended debugging capabilities for automated tests as well as frontend performance testing using WebDriver.
Christian Bromann
Christian Bromann
Track: Track+
Vortrag: Mo 3.4

 

Vortrag Teilen

14:45 - 15:15
Pause
Pause
Pause

15:15 - 15:50
Mo 1.5
Geht's auch kleiner? Mikroheuristiken im explorativen Testen
Geht's auch kleiner? Mikroheuristiken im explorativen Testen

Wie wird man Experte in explorativem Testen?'

'Erfahrung und Intuition...'

Diese Antwort ist nicht zufriedenstellend! Viele Leute glauben, dass exploratives Testen 'einfach herumklicken' ist. Das schadet unserem Image und wirft Risiken für die Zukunft auf.

In diesem Talk taucht Alex in die tiefe Welt unserer Entscheidungsprozesse ein. Ihr Ziel ist es, Muster zu identifizieren, die unsere Schritte beim explorativen Test lenken. Anhand dieser Muster können wir unser Testen verbessern und es anderen erklären.

Wenn du je gefragt wurdest 'Aber wie hast du das gefunden?' oder du selbst jemandem diese Frage gestellt hast - dann besuch diesen Talk!'

Zielpublikum: Tester, Entwickler
Vorraussetzungen: Grundkenntnisse vom explorativen Testen
Schwierigkeitsgrad: Advanced

Alex Schladebeck ist eine Testerin aus Leidenschaft. Ihr Herz schlägt für Qualität, Agilität und ihre Mitmenschen. Sie ist Geschäftsführerin und Leiterin der Qualitätssicherung bei der Bredex GmbH.
In diesen Rollen unterstützt sie Kollegen, Kunden und Teams in ihre Reise, bessere Qualität zu liefern: in Produkten, in Prozessen und in der Kommunikation.
In früheren Rollen war sie für die Befähigung von Teams und qualitativ hochwertige Systeme verantwortlich. Nun befähigt sie andere, genau das zu machen, und sorgt für eine Umgebung in der Firma, wo jede(r) aufblühen kann.
Alex schaut mit neugierigen Tester-Augen auf die Welt und möchte immer dazu lernen. Sie teilt ihr Wissen und ihre Erfahrungen in Workshops, Coachings und als Sprecherin oder Keynote-Sprecherin auf Konferenzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/alexandra.schladebeck

Alex Schladebeck
Alex Schladebeck
Track: Vortrag
Vortrag: Mo 1.5

Vortrag Teilen

15:15 - 15:50
Mo 2.5
80/20-Optimierung von Test-Suites: Erfahrungen aus Forschung & Praxis
80/20-Optimierung von Test-Suites: Erfahrungen aus Forschung & Praxis

Wenn ein System wächst, wird auch die Anzahl der automatisierten Tests größer. Wir sehen in der Praxis zunehmend öfter Test-Suiten, die mehrere Stunden bis Tage laufen.

Das erschwert die Untersuchung von Testfehlschlägen und mindert den Wert der Tests.

Wenn die Ausführung aller Tests zu lange dauert, kann man einen Teil der Tests häufiger auszuführen als den Rest. Der Schlüssel ist, diese Teilmenge so zu wählen, dass sie in einem Bruchteil der Zeit einen Großteil der Fehler findet.

Im Vortrag beleuchten wir verschiedene Ansätze hinsichtlich Kosten, Nutzen und Anwendbarkeit.

Wir stellen Erfahrungen aus der Forschung und dem Praxiseinsatz vor.

Zielpublikum: Tester, Entwickler, Testmanager
Vorraussetzungen: Interesse an Software Tests und Optimierung von Test Verfahren.
Schwierigkeitsgrad: Advanced

Extended Abstract:
Mit dem Alter und der Größe eines Softwaresystems steigt typischerweise der Bedarf für ausgiebige und qualitativ hochwertige Software Tests. Zudem werden für mehr Anwendungscode auch mehr Tests benötigt. Damit steigt die Ausführungszeit der Tests.

In der Praxis führt das immer häufiger zu Test Suiten, die Stunden bis Tage brauchen, um einmal zu Laufen. Das bringt eine Reihe von Probleme mit sich. Für die Entwickler bedeutet es, dass sie Feedback für den geänderten Code erst eine Lange Zeit nach dem sie die Änderungen gemacht haben, bekommen. Das macht es deutlich schwieriger, die gefundenen Fehler zu finden und beheben. Außerdem werden moderne verfahren, wie zum Beispiel Continuos Integration dadurch deutlich erschwert. All das mindert den Wert der Tests ausgerechnet für die Systeme, in denen sie absolut essenziell sind, nämlich große komplexe Software Systeme.

Eine naheliegende Lösung für das Problem ist es, einen Teil der Tests häufiger auszuführen, als den Rest. Die Herausforderung dabei ist, diese Teilmenge an Tests so zu bestimmen, dass man möglichst viel Zeit einsparen kann, ohne die Qualität der Test Suite erheblich zu mindern. Um das zu erreichen, gibt es verschiedene Ansätze, von denen jeder Vor- und Nachteile mit sich bringt.

Ein Ansatz ist die Test Suite Minimierung. Dabei werden verschiedene Kriterien, wie per Test Coverage [1] und Ausführungszeit, verwendet, um ein Subset von Tests zu wählen, das in einem Bruchteil der Zeit einen großteil der Fehler finden soll. [2]

Ziel dieses Verfahrens ist es, eine Liste von Tests zu wählen, die jeden Tag, oder öfter ausgeführt werden kann, um schnelleres Feedback zu ermöglichen. Die vollständige Test Suite sollte dennoch in regelmäßigen abständen ausgeführt werden.

Der Zweite Ansatz, den wir betrachten ist die Test-Impact-Analyse. Dabei werden Testfälle aussortiert, die bei ihrer nächsten Ausführung höchstwahrscheinlich keine Fehler finden. Die Annahme, dass ein Testfall beim nächsten Testlauf keinen Fehler findet, begründen wir durch die Änderungen seit dem letzten Testlauf. Ein Test, der keinen Code abdeckt, der seit dem letzten mal geändert wurde, wird voraussichtlich auch keinen Fehler finden. Zudem werden die Testfälle so sortiert, dass innerhalb der kürzest möglichen Zeit eine möglichst hohe Code Coverage erreicht wird. [3]

Im Vortrag gehen wir auf die Vor- und Nachteile der beiden Verfahren ein und präsentieren unsere Erfahrungen aus Forschung und Praxis.

Weiterführende Literatur

[1] F. Dreier, Obtaining Coverage per Test Case, Masterarbeit (2017)

[2] R.Noemmer, Conception and Evaluation of Test Suite Minimization Techniques for Regression Testing in Practice, Masterarbeit (2019)

[3] E. Juergens, D. Pagano, Test-Impact-Analyse: Fehler früh erkennen trotz großer, langlaufender Test-Suites, Objektspektrum 06/2018, <https://cqse.eu/test-impact-analyse-objektspektrum>

[4] J. Rott, R. Niedermayr, E. Juergens, D. Pagano, Ticket Coverage: Putting Test Coverage into Context, Proceedings of the 8th Workshop on Emerging Trends in Software Metrics (2017)

[5] E. Juergens, D. Pagano, Haben wir das Richtige getestet? Erfahrungen mit Test-Gap-Analyse in der Praxis, Whitepaper (2016)

[6] R. Noemmer, R. Haas, An Evaluation of Test Suite Minimization Techniques, International Conference on Software Quality (2020)

Raphael Noemmer hat seinen Informatik-Master an der TU München mit einem Fokus auf Software-Engineering und Software-Qualität abgeschlossen. Seine Masterarbeit behandelt das Thema Test-Minimierung.

Dr. Elmar Jürgens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Jürgens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Er wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.

Raphael Noemmer, Elmar Juergens
Raphael Noemmer, Elmar Juergens
Track: Vortrag
Vortrag: Mo 2.5

Vortrag Teilen

20:00 - 21:30
Tester Duell
Tester Duell
Tester Duell

Kennst du noch das Familienduell mit Werner Schulze-Erdel? „Wir haben 100 Leute gefragt…“ 

Wir haben nun 100 Tester gefragt, und Teilnehmer des GTD digital treten in Teams gegeneinander an, die meistgenannten Antworten der Community herauszufinden. Freu dich auf einen unterhaltsamen Abend mit spannenden Einblicken in die vielschichtige Welt des Testens. 

Melanie Wohnert ist Diplom-Mathematikerin, ehemalige IT-Führungskraft und begeisterte Agilistin.
Achtsamkeit veränderte ihr Leben in kleinen Schritten und in vielerlei Hinsicht. Heute ist sie selbstständige Trainerin, lehrt Agilität, Achtsamkeit und Mitgefühl (MSC) in Unternehmen sowie in Schulen. Sie leitet zudem den Trainer-Zertifizierungslehrgang für "Mindfulness in Organisationen" (MIO) in Süddeutschland.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Melanie.Wohnert

Thomas Rinke, Melanie Wohnert
Thomas Rinke, Melanie Wohnert
Vortrag: Tester Duell

Vortrag Teilen

, (Dienstag, 04.Mai 2021)
08:00 - 09:00
Lean Coffee
Lean Coffee
Lean Coffee

Sie haben Fragestellungen, die Sie mit anderen Teilnehmer:innen diskutieren möchten? Sie möchten mit Ihrer Erfahrung anderen Teilnehmer:innen eine Perspektive auf Fragen anbieten? Dann sind Sie beim Lean Coffee genau richtig. Denn im Lean Coffee bestimmt die Gruppe, welche Themen für wie lange diskutiert werden, um den maximalen Nutzen des Austauschs zu erreichen.  

Lean Coffee ist ein strukturiertes agenda-loses Meeting-Format, bei dem die Teilnehmer:innen die Tagesordnung durch die Themen, die sie einbringen, selbst bestimmen. 

Treten Sie in den Austausch mit Gleichgesinnten und diskutieren die aktuellen Themen rund um das Thema „Testen", „Qualität“ oder was auch immer in diesem Moment gerade wertvoll ist.

Vortrag: Lean Coffee

Vortrag Teilen

09:00 - 09:15
Eröffnung
Eröffnung
Eröffnung

Track: Vortrag
Vortrag: Eröffnung

Vortrag Teilen

09:20 - 09:55
Di 1.1
Behavior dropped development - Wie BDD zum Selbstzweck verkommt und dem Team im Weg steht
Behavior dropped development - Wie BDD zum Selbstzweck verkommt und dem Team im Weg steht

Behavior driven development kann ein ein mächtiger Verbündeter im Softwarelebenszyklus sein, aber auch mächtig im Wege stehen. In diesem Talk werde ich auf die Quintessenz von BDD eingehen und eine Abgrenzung zu ähnlichen Konzepten wie TDD, ATDD oder auch SBE machen. Weiterhin werde ich einige Verhaltensweise aufzeigen, die einer gelungenen Umsetzung im Weg stehen und dafür sorgen, dass BDD seine Stärken nicht ausspielen kann. Gezielt werde ich auf drei Probleme eingehen, die mir in der Praxis begegnet sind. Ich werde berichten, was mir in der Vergangenheit geholfen hat, Teams wieder auf den rechten BDD Kurs zu bringen.

Zielpublikum: Tester, Entwickler, Product Owner, Projektleiter
Vorraussetzungen: Grundlegendes Verständnis von Softwareentwicklung
Schwierigkeitsgrad: Basic

Extended Abstract:
Behavior driven development kann ein ein mächtiger Verbündeter im Softwarelebenszyklus sein. Genauso gut kann es aber auch mächtig im Wege stehen und den Prozess verlangsamen, verkomplizieren und zum reinen Selbstzweck verkommen.

Im Rahmen dieses Talks werde ich auf die Quintessenz von BDD eingehen und eine Abgrenzung zu ähnlichen Konzepten wie Test Driven Development, Acceptance Test Driven Development oder auch Specification by Example machen. Unabhängig vom gewählten Softwareentwicklungsmodell, kann es gerade in agilen Umfeldern seine Stärken ausspielen. Weiterhin werde ich einige Verhaltensweise aufzeigen, die einer gelungenen Umsetzung mächtig im Weg stehen können und dafür sorgen, dass BDD seine Stärken nicht ausspielen kann. Gezielt werde ich auf drei Probleme eingehen, die mir in der Praxis bereits häufiger begegnet sind. Dem Reflex widersprechend, diese Probleme mittels Workarounds zu umschiffen, werde ich berichten, was mir in der Vergangenheit geholfen hat, Teams wieder auf den rechten BDD Kurs zu bringen, damit BDD nicht zu einem reinen Selbstzweck verkommt und das Team verlangsamt.

Als Trainer und Berater liegen meine Schwerpunkte im Bereich der Qualitätssicherung und Softwaretests.

Über zehn Jahre habe ich in verschiedenen Rollen - vom manuellen Tester in der vergleichenden Warenprüfung  über Testmanager im Automobilsektor bis zum Abteilungsleiter Test für ERP-Software - dazu beigetragen, dass die Kunden die Qualität bekommen, die sie benötigen. Meine Themenschwerpunkte liegen im Bereich des agilen Testens, des explorativen Testens und dem Verankern von Qualitätsbewusstsein im gesamten Softwareentwicklungsprozess.

Auch privat lassen mich die Rollen Trainer und Coach seit über 20 Jahren nicht los, wenngleich es dann nicht um Softwaretests, sondern um Basketball geht.

Christian Kram
Christian Kram
Track: Vortrag
Vortrag: Di 1.1

Vortrag Teilen

09:20 - 09:55
Di 2.1
Lost in Permissions
Lost in Permissions

I have been working on a project with an extremely intricate users' roles structure for more than a year and during that time I've noticed many things that I could have done better and issue that I could have avoided.

I will drag your attention to: importance of creating and reviewing documentation on a regular basis; unification of roles restrictions; admin panel testing; merging of roles; priorities in system roles testing; how not be lost in permissions testing.

Absence of critical issues in roles and permissions is crucial for business, thus shouldn`t be neglected.

Target Audience: Testers
Prerequisites: experience with access rights testing would be nice but not necessary
Level: Basic

Extended Abstract:
Most of websites have at least 3 system roles - admin, logged in user and guest. Testing of users' access rights doesn`t seem to be too complicated in this case. However, what if there are multiple roles? What if there are more than 10 roles and some of their functionalities overlap?

I want to tell a story of the project with an intricate users' access rights system.

I am going to raise the following topics:

- What to do if you are hired when the project is already ongoing and there is no documentation for user roles;

  • Conflicts in logic when we have combinations of permissions;
  • Prioritizing roles and permissions that affect business the most;
  • Unreasonable distribution of time resources due to insufficient research;
  • Unification of the restrictions applied to users;
  • In what cases you should automate tests for user roles;
  • Danger of checking going through access right flows on front-end only;
  • Admin panel testing.

In my opinion sometimes roles and permissions testing is underestimated and is not tested separately. Instead it's expected that a tester will cover all roles while testing a feature. This is a justified approach when a new feature is tested, but not effective during regression or for automated tests.

Absence of critical issues in roles and permissions is crucial for business, thus shouldn`t be neglected.

Yana Shapka is a QA Engineer from Kyiv, Ukraine. A mentor in Women Who Code Kyiv nonprofit organization, helping bridge the gender gap in the tech industry in Ukraine. A mentor in BeQA Today non-profit organization, helping people with disabilities to start their careers in software testing. Gave a speech 'The Truth About Localization Testing' at Moldova Software Testing & Automation Conference in November 2019. Gave a speech 'Being a mediator in a distributed multicultural team' at Hungarian Software Testing Forum in November 2020. Can speak Japanese. Traveled to 25 countries.
Yana Shapka
Yana Shapka
Track: Vortrag
Vortrag: Di 2.1

Vortrag Teilen

09:20 - 09:55
Di 3.1
Testmethoden: Garantierte Qualitätssteigerung in der Praxis
Testmethoden: Garantierte Qualitätssteigerung in der Praxis

Jeder Tester kennt und benutzt Testmethoden im Projekt - sollte man meinen.Und denoch stellen wir in unseren Projekten immer wieder fest, dass Tester in der Praxis nicht aufbewährte Verfahren (die sie in den ISTQB-Schulungen gelernt haben) zurückgreifen oder sie gar nicht mehr kennen oder beherrschen.Auch werden in agilen Projekten viele Testfälle direkt durch Programmierer in Form von Unittests geschrieben, denen oft ein tiefes Verständnis für etablierte Testmethoden und methodische Heransgehensweisen fehlt.Wir zeigen, wie einfach es tatsächlich ist, solche Teammitglieder abholen. Durch gezieltes Vorleben eines methodischen, konsequenten Vorgehens gemäß ISTQB im Projekt. Durch "Coaching by doing", durch Weiterbildungsmaßnahmen, und vor allem praxiserprobten Einsatzmöglichkeiten dieser Testverfahren auch zu anderen Zwecken als der Testfallerstellung.Und wie wir - und Sie - damit die Qualität im Projekt regelmäßig und verlässlich verbessern können.Einfach.Effektiv.Vielseitig.Konsequent erfolgreich.Freuen Sie sich auf eine halbe Stunde komprimierte Praxiserfahrung mit Erfolgsfaktor.


Agile test enthusiast, driven by quality, team spirit and the desire to learn.

Studying computer science, starting as a software programmer, he changed to the „dark side“ some years later - and stayed with testing since then to convert it to the bright side of life.

Based on his experience in numerous projects with different industries, he founded and leads a testing division within the company and created the monthly "TeaTime" together with Utz Winter - a knowledge sharing platform within the company, open to public from time to time.

Steffen’s topics are agile testing, agile teams and teamwork, test automation, test processes, test coaching, team building, continuous learning. 

Steffen loves to share, learn and discuss experiences and knowledge in conferences and talks. 

Since 2018 he shares his knowledge as ISTQB trainer for the Certified Tester certifications.

Utz Winter, Steffen Schild
Utz Winter, Steffen Schild
Track: Track+
Vortrag: Di 3.1

Vortrag Teilen

09:20 - 11:40
Di 4.1
Workshop (Teilnehmerbegrenzung): Ensemble Exploratory Testing
Workshop (Teilnehmerbegrenzung): Ensemble Exploratory Testing

Ever wondered how experienced testers provide feedback quickly, discover unknown unknowns, and find that issue yet again on the first touch of the application? Let's lift the curtain together and discover the magic behind exploratory testing - as an ensemble. Whether you identify yourself as a developer, product person, tester, or anything else, whether you consider yourself a newbie or rather experienced, you are welcome to join this ensemble. Let's practice and explore together!

Maximum number of participants: 25

Target Audience: Testers, developers, product owners, UX, business analysts - anyone on a product development team
Prerequisites: Participant required equipment: Laptop
Level: Basic

Having graduated in sinology, Lisi fell into agile and testing in 2009 and has been infected with the agile bug ever since. She's especially passionate about the whole-team approach to testing and quality as well as the continuous learning mindset behind it. Building great products which deliver value together with great people is what motivates her and keeps her going. She received a lot from the community; now she's giving back by sharing her stories and experience. She tweets as @lisihocke and blogs at www.lisihocke.com. In her free time you can either find her in the gym running after a volleyball, having a good time with her friends or delving into games and stories of any kind.

Elisabeth Hocke
Elisabeth Hocke
Track: Workshop
Vortrag: Di 4.1

Vortrag Teilen

10:10 - 10:45
Di 1.2
Let's play! Gamification in der Qualitätssicherung
Let's play! Gamification in der Qualitätssicherung

Wir zeigen, dass spielerische Ansätze in der Qualitätssicherung nicht nur positive Effekte auf die Qualität durch Steigerung der Kreativität haben. Zusätzlich stärken sie die Kollaboration, den Teamzusammenhalt und die Position von QS-Verantwortlichen durch das gemeinsame Erlebnis und die Challenge. Wir stellen einige Ansätze aus der Praxis vor und liefern Tipps, wie man Spiele z.B. für das manuelle Testen oder kollaborative Risikoanalysen gezielt und effizient gestalten kann.

Zielpublikum: Fachleute, Entwickler, Tester, Test Manager, Architekten, Betriebsteam
Vorraussetzungen: Grundlegendes Verständnis von Test und QS
Schwierigkeitsgrad: Basic

Extended Abstract:
Testautomatisierung ist heute Standard, macht Spaß und wird selbstverständlich in Projekten gelebt. Daneben gibt es aber viele andere Aufgaben in der Qualitätssicherung, die eher unbeliebt, doch notwendig sind. Dazu zählen u.a. manuelle Tests. Wie schafft man es auf einfache Art und Weise, dass alle Stakeholder, von den Entwickler/innen bis hin zu den Kund/innen, das System manuell testen? Ganz einfach - man macht ein Spiel daraus! Ausgehend von spielerischen Ansätzen zum explorativen Testen erweitern wir den Fokus und widmen uns auch anderen QS-Themen wie der Risikoanalyse und weiteren agilen Praktiken für QS. Unsere Erfahrung ist: Fängt man einmal damit an, so können die Mitspieler/innen nicht genug davon haben - mit positiven Effekten auf den Teamzusammenhalt und die Qualität.

Dehla Sokenou fühlt sich in allen Phasen der Software-Entwicklung zu Hause, besonders im Testen. Bei WPS - Workplace Solutions ist sie als Test- und Qualitätsmanagerin und Software-Architektin tätig.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/dehla.sokenou

Baris Güldali begleitet als Agile Coach und Quality Coach agile Teams und unterstützt diese bei der Erreichung ihrer Sprintziele. Er organisiert Community-Events mit Schwerpunkt Agilität und Qualität.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/baris.gueldali

Dehla Sokenou, Baris Güldali
Dehla Sokenou, Baris Güldali
Track: Vortrag
Vortrag: Di 1.2

Vortrag Teilen

10:10 - 10:45
Di 2.2
Working Effectively Agile in a Large Enterprise - A Testers Perspective
Working Effectively Agile in a Large Enterprise - A Testers Perspective

Seven years ago the author got for the first time exposed to agile product development. Last year he joined his current company believing to 'have seen it all'. One year later he has experienced agile development at a whole new level. This experience report shares the technical and organizational challenges faced in the development, testing and test automation of complex banknote processing systems, and how they have been overcome as part of a second agile transformation program. The author believes that this journey has been more than worthwhile and should inspire others - in particular testers - to go 'all agile'.

Target Audience: Testers, test architects, product owners, scrum masters. decision makers
Prerequisites: Basic understanding of agile working methods
Level: Advanced

Extended Abstract:
Giesecke + Devrient Currency Technology is a leader in the development of high speed banknote processing systems that process millions of banknotes each day all across the world. These systems must be 100% accurate - even in jam situations -, and are realized using a combination of multiple complex software components - including everything from classic embedded software, to real time image processing, to database processing software - as well as custom 'hardware' components, i.e., mechatronic components. Multiple products are built from different common software platforms, and extensive, sophisticated test automation is used to run and evaluate regression tests as part of nightly continuous integration.

G+D started its agile journey already many years ago with agile teams in software development. In our presentation, we will explain multiple challenges we faced during this initial phase, both on an organizational as well as a technical level. In particular, the challenge of marrying traditional requirement management with agile software development. We will then present how a second agile transformation, i.e., going 'all agile', helped to resolve most of our initial challenges and how we address those remaining. With this change we witnessed that not only the awareness of testing and test automation, but also its consideration during product development gained a significant boost in our organization. We believe our findings can help other companies and testing teams that develop complex systems with highest quality and reliability standards to understand why going 'all agile' is so essential for a successful transformation of product development, and how it can even help them to strengthen testing as a discipline in their company.

Dr. Stephan Schulz is a Test Architect at Giesecke + Devrient Currency Technology. For the past 20 years he has been researching, educating, consulting, and authoring numerous publications and standards on testing and model based testing. In addition, he has served for many years as chair of the ETSI TC MTS."
Stephan Schulz
Stephan Schulz
Track: Vortrag
Vortrag: Di 2.2

Vortrag Teilen

10:10 - 10:45
Di 3.2
Test Intelligence: Lücken schließen und überflüssige Tests entfernen, um mehr Fehler in weniger Zeit zu finden
Test Intelligence: Lücken schließen und überflüssige Tests entfernen, um mehr Fehler in weniger Zeit zu finden

Viele Teams müssen immer mehr Funktionalität in immer weniger Zeit testen. Historisch gewachsene Test-Suites stoßen dabei oft an ihre Grenzen, da sie gleichzeitig Zuviel und Zuwenig testen. Zuviel, da sie Tests enthalten, die Kosten erzeugen, aber kaum Mehrwert gegenüber ähnlichen Tests bieten. Zuwenig, da trotzdem wichtige Funktionalität ungetestet bleibt.

Im Vortrag stelle ich Analysetechniken vor, um diese Probleme im eigenen System aufzuzeigen. Historienanalyse des Versionskontrollsystems zeigt, wo in der Vergangenheit im System am meisten Fehler aufgetreten sind. Test-Gap-Analyse deckt auf, welche Code-Änderungen noch ungetestet sind. Und Pareto-Test-Analysen identifizieren die Tests, die das schlechteste Kosten-Nutzen-Verhältnis haben. Ich zeige für jede Analyse die zugrundeliegenden Konzepte und unsere Erfahrungen im Einsatz in der Praxis.

Der Vortrag fasst dabei mehrere Vorträge zusammen, die in den letzten Jahren dem German Testing Day, den Software Quality Days und dem QS-Tag mit Best Presentation Awards ausgezeichnet wurden. Anders als diese Einzelvorträge stellt er aber keine neuen Analysen oder neue Forschungsarbeiten vor, sondern gibt einen konsolidierten Überblick für diejenigen, die sich für das Thema Test Intelligence neu interessieren.

Dr. Elmar Jürgens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Jürgens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Er wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt.

Elmar Juergens
Elmar Juergens
Track: Track+
Vortrag: Di 3.2

Vortrag Teilen

10:45 - 11:15
Pause
Pause
Pause

11:15 - 11:50
Di 1.3
Automatisierte E2E-Tests von Microservices
Automatisierte E2E-Tests von Microservices

Microservices sollen autark entwickelt und ausgeliefert werden. In der Realität können sie aber fast immer nur in Kombination sinnvoll benutzt werden.

Daher müssen sie auch integriert getestet werden - am besten automatisiert in einer CI/CD-Pipeline. Wenn aber die E2E-Teststufe fehlschlägt, dann ist die Auslieferung aller(!) beteiligter Microservices blockiert, bis die Ursache behoben ist.

An dieser Stelle zeigt sich der Widerspruch zwischen Qualitätssicherung mittels E2E-Tests und schnellen, unabhängigen Deployments.

In diesem Vortrag teilen wir unsere praktischen Erfahrungen mit diesem Problem, unsere Lösungsstrategien und alternative Ansätze.

Zielpublikum: Tester, Entwickler, Testmanager
Vorraussetzungen: Grundkenntnisse Testing, Grundkenntnisse Microservices
Schwierigkeitsgrad: Advanced

Extended Abstract:
Microservices sind noch immer in aller Munde. Sie sollen autark entwickelt, ausgeliefert und deployed werden. In der Realität können sie aber fast immer nur in Kombination sinnvoll benutzt werden.

Aus der Perspektive des Softwaretesters ist die Sache daher klar: wir wissen aus Erfahrung, dass Softwarekomponenten, die miteinander interagieren, auch integriert getestet werden müssen. Jeder musste sicher einmal die schmerzliche Erfahrung machen, dass es an dieser Stelle nicht genügt, eine einzelne Komponente in Isolation zu testen, um sicherzustellen, dass die Komponenten auch im Zusammenspiel sauber funktionieren.

Ein weiterer Vorteil von Microservices besteht in der hervorragenden Tauglichkeit für CI und insbesondere CD. Hier werden sämtliche Teststufen vollständig automatisiert in einer CI/CD-Pipeline durchlaufen. Wenn nun aber die E2E-Teststufe fehlschlägt, dann ist die Auslieferung von allen(!) beteiligten Microservices blockiert, bis die Ursache identifiziert und behoben ist!

An dieser Stelle zeigt sich der Widerspruch zwischen dem Ziel, über E2E-Tests die Qualität der Software sicherzustellen und dem Ziel, schnell und unabhängig einzelne Komponenten ausliefern zu können.

In diesem Vortrag teilen wir unsere Erfahrungen im Umgang mit diesem Dilemma aus einem Projekt mit über 200 Entwicklern und einer Microservices-Landschaft mit über 60 Services.

Dabei diskutieren wir die Vor- und Nachteile von E2E-Tests für Microservices, die wesentlichen Probleme und Hindernisse, denen wir begegnet sind, welche Lösungsstrategien wir entwickelt haben, und was es für alternative Ansätze gibt, die man bedenken sollte.

Lukas Pradel arbeitet als Senior Consultant bei der Conciso GmbH. Die Zeit, die er mit der Automatisierung von Tests einspart, nutzt er am liebsten zum Motorradfahren.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Lukas.Pradel

Lukas Pradel
Lukas Pradel
Track: Vortrag
Vortrag: Di 1.3

Vortrag Teilen

11:15 - 11:50
Di 2.3
Customer Experience - Schluss mit Rätselraten
Customer Experience - Schluss mit Rätselraten

Der Kunde ist König - jedoch nicht nur beim Einkaufen, sondern auch wenn es darum geht digitale Produkte zu entwickeln. Niemand kann Ihnen besseres Feedback geben als Ihre Kunden selbst - warum fragen Sie sie nicht von Anfang an? Die Einbindung der Zielgruppe in einem frühen Stadium der Produktentwicklung ist entscheidend dafür, dass die Customer Experience nicht länger ein Rätselraten ist, sondern zu einer wissensgetriebenen Strategie wird. Lernen Sie im Vortrag, wie scheinbar unwichtige Faktoren signifikante Entscheider sein können und warum Sie nie aufhören sollten, den Status quo in Frage zu stellen.

Zielpublikum: Product Owner, Product Manager, Product Success Manager, Lead Testing & Development, Entscheider, Projektleiter
Vorraussetzungen: Keine speziellen Voraussetzungen benötigt
Schwierigkeitsgrad: Advanced

Extended Abstract:
Die Customer Experience reicht vom ersten Kontakt mit einer Marke über (hoffentlich) den Kauf, die Lieferung, das Auspacken, über viele weitere mögliche Touchpoints bis hin zur Benutzung - und endet eigentlich nie wirklich. Nach-Kauf-Erfahrungen wandeln sich zu Vor-Kauf-Erfahrungen und niemand kann Ihnen besseres Feedback zur erlebten Customer Experience geben als Ihre Kunden selbst - warum fragen Sie sie daher nicht von Anfang an und binden ihre Wünsche und Erwartungen direkt in die Produktentwicklung ein?

Wir bei Testbirds sind Experten darin, Kunden nach ihrer Meinung zu befragen. Mit 400.000 Remote-Testern auf der ganzen Welt haben wir rund um die Uhr Zugang zur größten Crowdtesting-Community weltweit. Wir haben fast 10 Jahre Erfahrung darin, aus Kundenfeedback die richtigen Schlüsse zu ziehen, diese auf die praktische Ebene zu übertragen und die Kundenerfahrungen für jede Art von digitalen Produkten auf das nächste Level zu heben. Dabei ist die Einbindung des Zielpublikums in einem frühen Stadium der Produktentwicklung entscheidend, um in die richtige Richtung zu gehen und von Anfang an dafür zu sorgen, dass die Customer Experience nicht länger ein Rätselraten ist, sondern zu einer wissensgetriebenen Strategie wird. Denn nur, wenn die Benutzerfreundlichkeit, Usability und Funktionalität unter realen Bedingungen getestet worden sind, können Sie sichergehen, dass sie auch unter realen Bedingungen funktionieren und Ihre Zielgruppe glücklich machen.

In unserer Präsentation nehmen wir die Qualität der Customer Experience und ihre außergewöhnlichen Einflussfaktoren unter die Lupe. Wir beantworten in unserer Präsentation:

  • Was & warum Sie Kunden über Ihre Kundenerfahrung befragen sollten
  • Wie Faktoren, die unwichtig erscheinen mögen, einen signifikanten Einfluss haben können
  • Warum Sie nie aufhören sollten, den Status quo in Frage zu stellen

Georg Hansbauer ist Mitgründer und Managing Director des Softwaretesting-Spezialisten Testbirds. Er verantwortet die Weiterentwicklung der Dienstleistungen und der IT-Infrastruktur. Georg verfügt über umfassende Erfahrung im Feld des Enterprise Testing – von automatisierten Tests kompletter IT-Service-Desks bis hin zu Lasttests – und hat zahlreiche IT-Projekte für internationale Konzerne betreut. Er absolvierte den Elitestudiengang „Finanz- und Informationsmanagement“ an der Universität Augsburg und der TU München und besitzt einen Bachelor in Wirtschaftsinformatik

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Georg.Hansbauer

Georg Hansbauer
Georg Hansbauer
Track: Vortrag
Vortrag: Di 2.3

Vortrag Teilen

11:15 - 11:50
Di 3.3
Effizienter testen mit dem Besten aus zwei Welten - agile Testautomatisierung mit integrierter synthetischer Testdaten-Erstellung
Effizienter testen mit dem Besten aus zwei Welten - agile Testautomatisierung mit integrierter synthetischer Testdaten-Erstellung

FMC und Spirit-Testing zeigen anhand eines konkreten Fallbeispiels, wie mit der cleveren Kombination zweier innovativer Tools die wichtigsten Herausforderungen im Test-Prozess erfolgreich gelöst werden können.

Für den Erfolg von Software-Projekten gewinnen effiziente automatisierte Testprozesse und ein qualitativ hochwertiges Testdatenmanagement angesichts stetig schneller wandelnder Rahmenbedingungen wie Digitalisierung, Customer Experience, KI und Cloud-Strategien immer mehr an Bedeutung.

FMC und Spirit Testing haben ihre Expertise gebündelt, um Unternehmen bei diesen Herausforderungen optimal zu unterstützen. Mit der Integration von succest und testOFFICE bieten sie den entscheidenden Mehrwert im Testprozess – insbesondere in SAP-Projekten.

succest von FMC Feindt Management Consulting GmbH ist eine innovative, branchenunabhängige Lösung für die Erstellung von passgenauen synthetischen Testdaten - auch für komplexe Testdaten-Konstellationen und historische Testdaten.

testOFFICE ist eine technologieübergreifende Testautomatisierungs- und Testmanagement-lösung – konzipiert sowohl für FachtesterInnen als auch für TesterInnen mit Entwicklungshintergrund. Auf Basis eines modernen modularen schlüsselwortgetriebenen Baukastens („sog. TCDL-Testing 2.0“) wurde mit testOFFICE eine anwenderfreundliche effektive Lösung für die Automatisierung von Testfällen im End2End-Test geschaffen.

Jürgen Volles verfügt als Geschäftsführer und aktiver Testmanager von SPIRIT-TESTING über 25 Jahre Projekterfahrung im IT QS-Umfeld. Er leitete zahlreiche SAP und NON-SAP-Testprojekte und war ebenso „Hands-On“ auf der Testautomatisierungsseite tätig.
Anfang der 2000-er Jahre erkannte er in verschiedenen Großprojekten die Notwendigkeit auch fachliche Testteams mit an Bord zu nehmen und entwickelte daraufhin mit seinem Team einen modernen schlüsselwortgetriebenen („key word driven 2.0.“) Testautomatisierungsansatz.

Isabella Rieger leitet bei FMC GmbH den Bereich Sales und Business Development für succest und beschäftigt sich intensiv mit den Themen Testdatenmanagement und Testautomatisierung. Zuvor war Isabella Rieger in verschiedenen Positionen in der Industrie sowie viele Jahre bei SAP in den Bereichen Business Development, Sales und Partnermanagement tätig.

Jürgen Volles, Isabella Rieger
Jürgen Volles, Isabella Rieger
Track: Track+
Vortrag: Di 3.3

Vortrag Teilen

12:05 - 12:40
Di 1.4
AI4T - A big step towards a fully automated test life cycle
AI4T - A big step towards a fully automated test life cycle

Do you use test automation in your company, but still facing huge manual maintanance efforts in many other areas of the test life-cycle? Do you, for example, have this annoying daily routine of checking hundreds of failed test cases before the real problem is found? 

AI4T (Advanced Intelligence for Testing) is aiming to go beyond just automating test execution. Cutting-edge techologies like machine learning are leveraged to take a big step towards the vision of a fully automated test life-cycle.

In this talk, we focus on how to maximize automation in many testing activities to reduce boring and repeditive tasks.

Target Audience: Test automation engineers, developers, test and project managers
Prerequisites: A basic knowledge in software testing and test automation is beneficial. No development knowledge required.
Level: Advanced

Extended Abstract:
To keep up with today's fast-paced software development world, automation is essential to provide rapid feedback on software quality. One of the key drivers for businesses to succeed is the need for faster time to market and lean quality assurance. For this reason, processes throughout the entire test lifecycle must be accelerated through advanced intelligent automation.

In this talk, we move beyond automated test execution by making QA-related processes more comprehensive, scalable, and faster. With AI4T, we have developed approaches that take big steps towards a fully automated test life cycle.

We will tackle the following questions that often occur in a usual day of a test engineer and / or developer:

  • Did your number of automated test cases grow so much that it takes way to long  till all the tests are complete?
  • Are you facing this huge maintenance efforts to keep your tests up to date and functional after code changes?
  • Do you have this annoying daily routine of having to sometimes check hundreds of failed test cases before finding what the actual problems were?
  • Do you have this weak spot, that old systems and legacy code nobody dares to touch?

Our use-cases aim to provide new cutting-edge inspirations and solutions to these research questions.

Herr Nößner ist Experte in Machine Learning und Künstliche Intelligenz. Er hat seinen PhD an dem größten Deutschen Institut für Data und Web Science in Mannheim in den Bereichen Machine Learning und Datenintegration absolviert. In seiner frühen Karriere hat er Erfahrungen in Produktionsbetrieben wie dem mittelständigen Unternehmen Fischer GmbH in Sinsheim (Werkzeugbau, Kunststoffteile, und Systembausteine) und Daimler Trucks in Wörth gesammelt. Anschließend hat er als IT Consultant die Kundenkommunikation für ein großes Kundenprojekt bei Capgemini für Daimler maßgeblich gestaltet. In den letzten 5 Jahren war er in Australien als Spezialist für Machine Learning und AI bei verschiedenen Mining Software Firmen beschäftigt (Dassault Systems GEOVIA und Deswik) und hat an Projekten zur Verwirklichung der Vision der vollautomatischen Mine mitgewirkt. 
Nun hat er bei Nagarro begonnen und möchte die Faszination von Machine Learning in Österreich weiter entfachen und gleichzeitig Machine Learning ,demystifizieren'.
Thomas Steirer ist ein Testautomatisierungsarchitekt aus Wien, und bringt mehr als 15 Jahren Erfahrung mit. Er hat zahlreiche Automatisierungsframeworks und 
-lösungen in verschiedenen Branchen und Technologien entwickelt. Sein Schwerpunkt liegt auf dem Aufbau skalierbarer und nachhaltiger Lösungen, die primär darauf ausgelegt sind wertvolle Informationen zu liefern. In seiner Tätigkeit bei Nagarro begleitet er Kunden bei der Einführung und Optimierung von Testautomatisierung und unterrichtet an Hochschulen in Österreich. In seiner Freizeit ist er ein Tech-Junkie, Tüftler und begeisterter Gameboy-Musiker.
Jan Nößner, Thomas Steirer
Jan Nößner, Thomas Steirer
Track: Vortrag
Vortrag: Di 1.4

Vortrag Teilen

12:05 - 12:40
Di 2.4
Grundlegende Testkompetenzen - Wohin geht die Reise?
Grundlegende Testkompetenzen - Wohin geht die Reise?

Das GTB hat zusammen mit der TH Köln und der HS Bremerhaven sowie dem ATB eine Neuauflage der 2011 und 2015/16 erfolgreichen Umfragen zum Status-Quo und der Entwicklung von »Softwaretest in Praxis und Forschung« durchgeführt.

An der Befragung 2020 haben ca 1300 Personen teilgenommen und Fragen zur Qualitätssicherung aus Sicht des Managements, der operativen Umsetzung und der Forschung beantwortet. Die Umfrageergebnisse lassen in den letzten 10 Jahren einen deutlichen Trend in Richtung agiler Prozesse erkennen. Wo verorten sich in diesem Umfeld die grundlegenden Testkompetenzen? Dieser Frage werden wir in dem Beitrag nachgehen.

Zielpublikum: Management und Personen aus dem operativen Bereich zum Benchmarking des eigenen Unternehmens
Vorraussetzungen: keine
Schwierigkeitsgrad: Basic

Extended Abstract:
Das German Testing Board (GTB e.V.) hat zusammen mit der Technischen Hochschule Köln (Prof. Dr. Mario Winter) und der Hochschule Bremerhaven (Prof. Dr. Karin Vosseberg) sowie dem Austrian Testing Board (ATB) eine Neuauflage der 2011 und 2015/16 erfolgreichen Umfragen zum Status-Quo und der Entwicklung von »Softwaretest in Praxis und Forschung« durchgeführt. Bei der aktuellen Befragung haben 1307 Teilnehmende die Fragen zur Qualitätssicherung aus Sicht des Managements, der operativen Umsetzung und der Forschung beantwortet. Die Ergebnisse der aktuellen Umfrage sowie der zurückliegenden Umfragen stehen allen Interessierten im Internet unter der URL www.softwaretest-umfrage.de zur 
freien Verfügung.

Ein Großteil der Fragen von 2011 und 2015/16 wurden für die aktuelle Umfrage übernommen, sodass eine sehr gute Abschätzung der Entwicklung in den letzten 10 Jahren gegeben werden kann: Was hat sich verändert? Wie sieht der Test-Alltag heute in den Unternehmen aus? Was hat sich im Test- Alltag etabliert? Diese und weitere Fragen waren Ausgangspunkt für die Umfragen.  Die bisherigen Auswertungen der Umfragen zeigen deutlich, dass sich der erkennbare Trend zu agilen Softwareentwicklungsprozessen bestätigt. Die Praktiken jedoch, die mit agilen Vorgehensmodellen verbunden sind und das agile Mind-Set prägen, scheinen noch nicht im täglichen Handeln und den Organisationsstrukturen flächendeckend verankert. Außerdem verlieren grundlegende Testkompetenzen, die eine systematische Vorgehensweise unterstützen, an Sichtbarkeit und einige Testverfahren sind häufig nicht einmal bekannt. Bis zum Vortrag werden weitere detaillierte Auswertungen durchgeführt, um die ersten Auffälligkeiten zu untermauern.

Karin Vosseberg ist Professorin an der Hochschule Bremerhaven im Bereich IT- Systemintegration mit dem Fokus auf Qualität in der Softwareentwicklung. Seit 2015 ist sie als Konrektorin für Studium und Lehre in der Hochschulleitung. Sie ist Mitglied im ASQF-Präsidium, Wissenschaftspartnerin der Softwareforen, Leipzig und in diversen Programmkomitees für Konferenzen und Workshops.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Karin.Vosseberg

Prof. Dr. Karin Vosseberg
Prof. Dr. Karin Vosseberg
Track: Vortrag
Vortrag: Di 2.4
Themen: Research

Vortrag Teilen

12:05 - 12:40
Di 3.4
Optimierung des DevOps Value Streams
Optimierung des DevOps Value Streams

Optimieren Sie Ihren DevOps Value Stream, indem Sie Ihre bisherigen Investitionen in DevOps effizient nutzen. Ihre Daten werden konsolidiert, Engpässe dadurch identifiziert und Ihr Durchsatz wird verbessert.
 
HCL Accelerate ist ein Softwareprodukt zur Visualisierung, Orchestrierung und Optimierung Ihres kontinuierlichen Value Stream. Entwicklungsteams, Release-Manager und Transformationsverantwortliche verfügen jetzt über ein einziges Tool, mit dem sie Daten konsolidieren und Maßnahmen über viele agile, kontinuierliche Integrations- und kontinuierliche Bereitstellungssysteme hinweg vorantreiben können. HCL Accelerate wurde für Unternehmen entwickelt, die über die Automatisierung hinausgehen möchten, um den Kulturwandel voranzutreiben und die Vorteile ihrer Investitionen in die DevOps-Transformation voll auszuschöpfen. Visualisieren Sie den kompletten Value Stream, beispielsweise von eingehenden Service-Ticket über die Entwicklung eines Bugfix, den Test des neuen Codes bis hin zur Anwendung des Updates – und das mit Daten aus einer Vielzahl von Anwendungen, wie Jenkins, Jira, ServiceNow u.v.A.m.
 
Sehen Sie in der Demo, wie in HCL Accelerate alle Artefakte Ihres Value Streams in einer einzigartigen Sicht veranschaulicht werden und alle verknüpften Informationen & Daten zur Verfügung stehen.
Trends hinsichtlich aller Metriken, wie Zeit, Qualität, Security Scans etc. werden automatisch ermittelt und liefern Ihnen eine Visualisierung in Echtzeit.
Verbesserungsmaßnahmen werden dadurch zielgerichtet und können als Best Practice unternehmensweit genutzt werden.

Udo Blank
Udo Blank
Track: Track+
Vortrag: Di 3.4

Vortrag Teilen

12:40 - 14:00
Pause
Pause
Pause

13:00 - 13:30
Di 5.1
German Testing Board e. V. Networking Lounge
German Testing Board e. V. Networking Lounge

Continuous Integration, Continuous Delivery, Continuous Deloyment, Testen im agilen Team, Unittest – überall begegnet man „dem Test”. Aber was heißt das eigentlich – „der Test”? Häufig fehlt die nötige Test-Expertise im Entwicklungsteam. Was tun? Eine wichtige Hilfestellung kann hier der an praktischen Codierungsaufgaben orientierte Kurs „Testing Foundations for Developers“ (A4Q-TF4D) schaffen. Das German Testing Board, das für den Certified Tester in Deutschland verantwortliche Mitgliedsboard des ISTQB® hat dieses Curriculum entwickelt und bringt dieses nun in Kooperation mit der Alliance for Qualification (A4Q) auf den Markt. Der „A4Q Testing Foundations For Developers“ (A4Q-TF4D) verknüpft in eleganter Weise das grundlegende Verständnis zu systematischer Testmethodik und Einbindung der Testaufgaben in die Projektarbeit mit praktischen (Codierungs-)Übungen zur konkreten Erstellung von Tests.
Erhardt Wunderlich und Armin Metzger geben einen kurzen Einblick und stehen anschließend für Fragen und Antworten zur Verfügung.

Dr. Armin Metzger hat über 25 Jahre Erfahrung in Software-Entwicklung und -test in Industrie- und Forschungsprojekten und internationalen Gremien. Seit 2018 ist er Geschäftsführer des German Testing Board.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/armin.metzger

Dr. Erhardt Wunderlich arbeitet bei Alstom im Center of Expertise an dem Thema Tools and Processes. Dr. Wunderlich hat über 30 Jahre Erfahrung in Software-Entwicklung und -test in verschiedenen Branchen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/erhardt.wunderlich

Armin Metzger, Erhardt Wunderlich
Armin Metzger, Erhardt Wunderlich
Vortrag: Di 5.1

Vortrag Teilen

14:00 - 14:35
Di 1.5
Test Automation in the age of digital banking Darwinism
Test Automation in the age of digital banking Darwinism

Raiffeisen Bank International (RBI) started in 2017 with “Group Digital Solutions” a journey in order not to oversleep the digitization of the banking industry.

Due to new approaches such as DevSecOps & Continuous Testing, the topic of software tests, whether manual or automated, had to be completely redesigned and implemented.

This talk gives insights into the test strategy & the fullstack test automation architecture that were used.

Target audience: testers, developers, architects, managers
Prerequisites: none
Level: Advanced

Extended Abstract:

So that Raiffeisen Bank International can keep up with digitization in the banking sector, the company relies on the use of native apps, microservices and REST APIs in the Amazon cloud when implementing its mobile banking strategy.

In order to support the DevOps mantra "Automate everything", a full stack test automation strategy was developed that is based on open source tools and takes all components of the system architecture into account.

The independent services of the microservice architecture make additional interfaces visible that are not available in a monolithic architecture. The advantage is that they can be deployed and tested independently of each other.

Testing these systems is much more complex than testing a conventional monolithic application and needs additional demands on test automation, with classic integration tests being even more important for the overall structure. 

These integration tests were usefully supplemented by consumer contract tests. But end-2-end tests should not be missing either, since an effective test strategy must take into account both the isolated testing of individual services and the verification of the overall system behavior.

Aligning test automation with the classic test pyramid is a very useful approach if the individual layers are seen as the basis for “what is being tested” and not as a measure of the number of tests. Because the old wisdom still counts: “Quality over quantity!”.

Rudolf Grötz has been in IT for 30 years and has been a passionate software tester since 2008. He works as an agile engineering coach for the topic & test automation at Raiffeisen Bank International in Vienna and lives the motto "Test automation is not an act, test automation is a habit!". In addition to various author activities, including for IX-Magazin, he organizes the Agile (Test) Automation Meetup in Vienna and the TestBustersNight Vienna 6 times a year.

------------------

Rudolf Grötz ist seit 30 Jahren in der IT unterwegs und seit 2008 passionierter Softwaretester. Er ist als Agile Engineering Coach für das Thema & Test Automation bei der Raiffeisen Bank International in Wien tätig und lebt den Leitspruch „Testautomation is not an act, Testautomation is a habit!“. Neben diverser Autorentätigkeiten, u.a. für das IX-Magazin, organisiert er in Wien das Agile (Test) Automation Meetup und 6x pro Jahr die TestBustersNight Vienna.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/Rudolf.Gr%C3%B6tz

Rudolf Grötz
Rudolf Grötz
Track: Vortrag
Vortrag: Di 1.5

Vortrag Teilen

14:00 - 14:35
Di 2.5
Testsuite Yoga - Software Tests zurück ins Gleichgewicht bringen
Testsuite Yoga - Software Tests zurück ins Gleichgewicht bringen

Testsuite Yoga - Software Tests zurück ins Gleichgewicht bringen

Nicht nur Menschen, auch Testsuiten geraten unter Stress. Dann sind sie fragil, langsam zu ändern und durchzuführen, oder kosten auf andere Art Nerven. Um Stress abzubauen hilft folgendes:

  • Tägliche *A*temübungen mit *A*utomatischen Analysten, die Probleme in Testsuiten verhindern
  • *M*editation über einfache *M*etriken zur Früherkennung von Stress in Testsuiten
  • *P*ositionen in Form von *P*rozessen und Aktivitäten, um die Qualität von Tests von Anfang an in den Griff zu bekommen.

Dieser Vortrag berichtet von unseren Erfahrungen in über 60 Projekten: Wann helfen diese Techniken? Und was steht auf dem Pfad zum inneren Gleichgewicht im Weg?

Zielpublikum: Tester, Testmanager, Projektleiter
Vorraussetzungen: Jeder der schon einmal bei der Erstellung und Wartung von manuellen Testfällen beteiligt war kann diesem Vortrag folgen und wertvolle Informationen daraus beziehen.
Schwierigkeitsgrad: Advanced

Extended Abstract:
Nicht nur Menschen (vor allem Software Entwickler und -Tester), sondern auch Testsuiten geraten im Laufe ihres Lebens unter Stress. Woran zeigt sich das? Tests, die unter Stress stehen, sind fragil (also schlagen häufig fälschlich Alarm), langsam in der Änderung und Durchführung oder kosten auf andere Art Zeit und Nerven. Konkrete, messbare Symptome von Stress sind u.A. mehrdeutige Testfallbeschreibungen, eine unverständliche Struktur, unklare Testabdeckung oder zahlreiche Duplikate. Folgen des Stress' für das Projekt sind schlechte Software-Qualität und hohe Test- und Wartungskosten.

In diesem Vortrag zeige ich Gründe für den Stress in Testsuiten auf. Vor allem aber beschreibe ich wie man in Projekten diesen Stress abbauen kann. Dazu gehört:

  • Tägliche *A*temübungen mit *A*utomatischen Analysten, die Probleme in Testsuiten schon bei der Erstellung verhindern
  • *M*editation über einfache *M*etriken zur Erkennung von Stress in Testsuiten
  • *P*ositionen in Form von *P*rozessen und Aktivitäten, um die Qualität von

Tests von Anfang an konstruktiv in den Griff zu bekommen.

Wir haben diese Techniken seit etwa 5 Jahren in über 60 Projekten im Einsatz. In dem Vortrag berichte ich aus unseren Erfahrungen: Wann helfen diese Techniken der Testsuite Stress abzubauen? Und was steht auf dem Pfad zum inneren Gleichgewicht im Weg?

Dr. Henning Femmer ist einer der Gründer von Qualicen. Bei Qualicen hilft Henning unterschiedlichsten Firmen bei der Einführung von Text-Analytics-Ansätzen. Er hat im Bereich Software Engineering an der Technischen Universität München promoviert und ist unter anderem im Steering Committee des Artificial Intelligence for Requirements Engineering Workshops tätig. Henning ist häufig Speaker auf nationalen und internationalen Konferenzen.

Mehr Inhalte dieses Speakers? Schaut doch mal bei sigs.de vorbei: https://www.sigs.de/autor/henning.femmer

Henning Femmer
Henning Femmer
Track: Vortrag
Vortrag: Di 2.5

Vortrag Teilen

14:35 - 15:10
Pause
Pause
Pause

15:10 - 15:55
KeyDi
Hack Your Brain - Entfalte Dein Potential auch in der Krise
Hack Your Brain - Entfalte Dein Potential auch in der Krise

Wusstet Ihr, dass das komplexeste Device der Welt ohne Gebrauchsanweisung ausgeliefert wird? Wir alle benutzen es Tag für Tag intuitiv, doch so bleibt häufig auch viel des mitgelieferten Potentials auf der Strecke. Wie dieses Device Daten verarbeitet und wie wir mit diesem Device eine Hochleistung bringen können, ist der Fokus dieses Vortrags. Die Neurowissenschaftlerin Dr. Karolien Notebaert vermittelt verblüffende Einsichten und zeigt auf, wie wir das eigene Gehirn hacken können – exploratives Testen garantiert!

Dr. Karolien Notebaert ist promovierte Neurowissenschaftlerin und führt die Science and Leadership Academy (www.science-and-leadership.com). Sie arbeitet als Dozentin an der Goethe Business School Frankfurt sowie am Management-Institut St. Gallen. Sie ist ausgewählte TEDx-Talk-Rednerin sowie Bestsellerautorin des F.A.Z.-Buchs „Wie das Gehirn Spitzenleistung bringt“. Ihr neues Buch "The Pilgrim Who Trained her Monkey" wurde in Oktober 2020 veröffentlicht. Als Speaker und Trainerin hat sie sich darauf spezialisiert, neueste Erkenntnisse aus der Hirnforschung für Unternehmen und Individuen nutzbar zu machen.
Karolien Notebaert
Karolien Notebaert
Track: Keynote
Vortrag: KeyDi

Vortrag Teilen

15:55 - 16:00
Abschluss
Offizieller Abschluss der Konferenz
Offizieller Abschluss der Konferenz

Track: Keynote
Vortrag: Abschluss

Vortrag Teilen

Zurück