Willkommen zur Embedded Testing 2024

28. August 2023: Die Webseite zur Embedded Testing ist fertig gestellt und erste Gespräche mit potentiellen Speakern, Sponsoren und Teilnehmenden laufen. Der Call for Papers ist eröffnet und läuft noch bis zum 12. November 2023.

08. November 2023: In vier Tagen endet der Call for Papers zur Embedded Testing

Evently

News zur Embedded Testing 2024

Simply enter your keyword and we will help you find what you need.

What are you looking for?

Image Alt

Agenda Tag 1

Embedded Testing 2025

Dienstag, 25. Februar 2025

08:00 bis 09:00, Foyer

Begrüßungskaffee und Registrierung

09:00 bis 09:15, Kopernikus 3

Konferenzeröffnung

09:15 bis 10:15, Kopernikus 3

Eröffnungskeynote: Dr. Elmar Jürgens: Test Intelligence: Wie finden wir schneller mehr Fehler in unserem Embedded System?

mehr...

Test Intelligence: Wie finden wir schneller mehr Fehler in unserem Embedded System?

Wir müssen immer mehr Funktionalitäten in immer weniger Zeit testen, da erfolgreiche Software von Release zu Release wächst, aber die Release-Zyklen immer kürzer werden. Historisch gewachsene Test-Suites sind hierfür oft ungeeignet, da sie gleichzeitig zu viel und zu wenig testen. Zu viel, weil sie redundante Tests enthalten, die Ausführungs- und Wartungskosten verursachen, aber kaum Mehrwert gegenüber ähnlichen Tests bieten. Zuwenig, da trotzdem wichtige Funktionalität ungetestet bleibt. Das führt dazu, dass die Test-Suites zwar sehr lange laufen, dabei aber viele Fehler nicht finden.

Wir müssen diese Test-Suiten effektiver machen (d.h. mehr Fehler finden) und effizienter (d.h. schneller/billiger), um langfristig erfolgreich zu sein.

Unsere Forschungsgemeinschaft hat jahrzehntelang an Ansätzen gearbeitet, um die Effektivität und Effizienz von Tests zu steigern. In den letzten Jahren sind vermehrt auf KI basierende Ansätze dazugekommen, die versprechen, uns zu helfen, schneller mehr Fehler zu finden.

In diesem Vortrag stelle ich Ansätze vor, um in kürzerer Zeit mehr Fehler zu finden: Historienanalysen ermitteln, wo in vergangenen Releases die meisten Fehler aufgetreten sind; dies deckt oft Prozessmängel auf, die die Ursache zukünftiger Fehler sein können. Die Test-Gap-Analyse zeigt, welche Code-Änderungen noch nicht getestet wurden und am fehleranfälligsten sind. Pareto-Optimierung von Test-Suiten, Test-Impact-Analyse und Predictive-Test-Selection identifizieren Tests, die momentan das beste Kosten-Nutzen-Verhältnis haben. Und schließlich arbeitet die Defect Prediction mit KI, um vorherzusagen, wo zukünftig Fehler auftreten werden.

Wir haben jede dieser Analysen implementiert, in empirischen Studien untersucht wie gut sie funktionieren, und in unserer eigenen Entwicklung und bei unseren Kunden eingesetzt. Für jede Analyse skizziere ich ihre Forschungsgrundlage, zeige wie gut sie funktionieren und beantworte, mit welchen Analysen wir wirklich in kürzerer Zeit mehr Fehler finden.

Referent: Dr. Elmar Jürgens

Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar Jürgens wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt und 2024 mit den Deutschen Preis für Software Qualität ausgezeichnet.

10:15 bis 11:15, Kopernikus 3

Keynote: Prof. Dr. Christof Ebert: Advances in Security Testing

mehr...

Advances in Security Testing

Hacking is accelerating with the convergence of product IT and enterprise IT. For instance, the software-defined vehicle (SDV) converges product IT in the vehicle with enterprise IT in the cloud and backbone infrastructure. Embedded systems are today the primary target for hackers because systems and components have high levels of always-on, connectivity, and smart application programming interfaces (APIs) for software updates and facilitate remote attacks. Standardized software stacks reduce the entry barrier for malicious actors. Starter kits for all sorts of malware are available, increasingly fueled by AI tools. With software and data being manipulated, the initial qualified functionality of systems is no longer guaranteed.

Risk-oriented security test matters across domains from medical, to transport, industry and automotive. Yet, many companies have no systematic security testing, independent pen-test nor dedicated R&D security team. With classic security testing, vulnerability detection is inefficient and incomplete. Four methods are illustrated that beef up your cybersecurity verification and validation: Generative AI to advance Security Analysis, Software Quality Analysis, Fuzzing and Grey-Box Penetration Test. Based on our industry experiences at Vector we show in this presentation the benefits of independent verification and validation for cybersecurity. The presentation will show methods to mitigate cybersecurity risks in embedded systems, such as deploying novel test coverage methods for grey-box Pen-Test. Fresh from our own labs we will show how GenAI can make software-defined systems more robust and secure.

Referent: Prof. Dr. Christof Ebert

Christof Ebert is the managing director of Vector Consulting Services. A trusted advisor for companies and member of industry boards, he supports clients worldwide to sustainably improve product strategy, IT and development and to manage transformations. Dr. Ebert is a professor at University of Stuttgart and Sorbonne University in Paris. He has founded the Robo-Test incubator and holds several patents in the field of autonomous systems. Contact him at christof.ebert@vector.com, www.vector.com/consulting

11:15 bis 11:45, Foyer und Einstein 1 und 2

Kaffeepause und Besuch der Ausstellung

11:45 bis 12:30, Raum: Kopernikus 3

Adam Mackay: AI in Safety-Critical Testing: Bridging Theory and Practice – A Framework for Integration with Traditional Test Methodologies

11:45 bis 12:30, Raum: Kopernikus 2

Thomas Schütz: Varianten und Produktlinien für Embedded Systeme testen

11:45 bis 12:30, Raum Kopernikus 1

Jan Diesing: Optimierung der Hardware-Software-Integration: Schlanke Lösung für Testautomatisierung

mehr...

AI in Safety-Critical Testing: Bridging Theory and Practice – A Framework for Integration with Traditional Test Methodologies

The integration of artificial intelligence into safety-critical software testing presents both unprecedented opportunities and unique challenges for embedded systems development. This presentation examines the practical implementation of AI-enhanced testing methodologies within established safety-critical frameworks, with particular focus on maintaining compliance with standards such as DO-178C and ISO 26262. Through analysis of research implementations in automotive and aerospace domains, we demonstrate how traditional test approaches can be augmented—rather than replaced—by AI capabilities.

Drawing from recent research and experimental applications, we present a structured framework for incorporating AI-driven test generation and optimization while preserving the rigor demanded by safety-critical systems. The presentation details specific techniques for integrating machine learning models with existing test harnesses, including automated test case generation, coverage optimization, and anomaly detection. Research findings from proof-of-concept implementations demonstrate the potential of these approaches while highlighting considerations for maintaining compliance with safety standards.

Key focus areas include:
– A systematic approach to validating AI-generated test cases against traditional testing criteria
– Techniques for maintaining traceability between AI-enhanced tests and safety requirements
– Methods for achieving high MC/DC coverage through hybrid manual-AI test generation
– Practical strategies for integrating AI capabilities into existing test frameworks
– Empirical results comparing traditional and AI-augmented testing approaches

The presentation concludes with a roadmap for organizations looking to adopt AI testing capabilities while maintaining their safety-critical certifications, including specific guidelines for tool qualification and verification processes.

Referent: Adam Mackay

Adam Mackay serves as the Head of AI Research at QA Systems, where he leads initiatives to advance the application of AI in safety-critical domains including aerospace, automotive, and healthcare. With over 20 years of experience in regulated and safety-critical technology, Adam specializes in bridging the gap between emerging AI capabilities and traditional testing methodologies.

Adam currently leads QA Systems‘ research into AI-enhanced testing methodologies, focusing on maintaining rigorous safety standards while leveraging the benefits of machine learning and automated test generation. His work has contributed to the development of novel approaches for combining traditional test frameworks with AI capabilities, particularly in the context of DO-178C and ISO 26262 compliance.

mehr...

Varianten und Produktlinien für Embedded Systeme testen

Viele Produkte werden inzwischen in sehr vielen verschiedenen Varianten geliefert. Doch wie kann ich durch Tests sicherstellen, dass alle Varianten funktionieren – ohne dass dabei die Komplexität explodiert?
Bei der Entwicklung und Test von Varianten und Produktlinien wird man in der Regel mit folgenden Fragen konfrontiert:
– Welchen Arten von Variabilität gibt es?
– Wie hängen Varianten und Produktlinie zusammen?
– Wie kann man die Variabilität beschreiben?
– Wie kann man die Variabilität in der Produktarchitektur umsetzen und konfigurieren?
– Wie kann man mit überschaubarem Aufwand alle Produktvarianten testen?
Im Vortrag betrachten wir diese Themen zunächst im Detail. Anschließend zeigen wir, wie man strukturiert Variabilität in Tests für Embedded-Systeme beschreiben und umsetzen kann. Der Vortrag endet mit einer Live-Demo eines Varianten-Tests.

Referent: Thomas Schütz

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Projektleiter des Eclipse Projekts eTrice.

mehr...

Optimierung der Hardware-Software-Integration: Schlanke Lösung für Testautomatisierung

In der modernen Softwareentwicklung, besonders im Bereich der Medizintechnik, ist es entscheidend, Software auf der Zielhardware frühzeitig zu testen, um Fehler frühzeitig zu identifizieren und die Stabilität der Software zu sichern. Dies ist besonders wichtig auf den unteren Testebenen.

Aktuelle Erfahrungen zeigen, dass die Hardware-Software-Integration häufig lange Zeit nur durch einfache Simulationen ohne Emulation der Zielplattform oder durch manuelle Tests verifiziert wird, da noch kein Hardware-in-the-Loop-System (HiL) einsatzbereit ist. Diese Verzögerung kann die Entwicklungszeit verlängern und das Risiko erhöhen, Fehler zu spät zu entdecken, was wiederum zu hohen Kosten führen kann.

In diesem Vortrag wird eine Testinfrastruktur vorgestellt, die Hardware und Software effizient integriert und gleichzeitig einfach zu implementieren ist. Zu den Schlüsselfunktionen gehören:
– Schnelle Einsatzbereitschaft: Ein initiales Setup der Hardware und Entwicklungsumgebung ermöglicht eine sofortige Nutzung.
– Flexibilität: Möglichkeiten, die Infrastruktur an verschiedene Testanforderungen und -szenarien anzupassen.
– Einfache Anwendung: Nutzung gängiger Programmiersprachen wie C++ und Testframeworks wie GoogleTest zur Erstellung von Tests.
– Kosteneffizienz: Eine kostengünstige Lösung, die ohne große Investitionen die Qualität der Integration sichert.

Referent: Jan Diesing

Jan Diesing ist Software-Ingenieur im Healthcare-Geschäftsbereich der ITK Engineering und hier seit mehr als sieben Jahren als Spezialist für die Verifikation unterschiedlicher eingebetteter Systeme verantwortlich. Zuvor absolvierte er an der Universität zu Lübeck sein Studium der Medizinischen Ingenieurswissenschaften mit den Schwerpunkten Signalverarbeitung und Bioinformatik. Seine Abschlussarbeit schrieb er am Fraunhofer Institut für Biomedizinische Technik in St. Ingbert im Bereich Muskelsignalanalyse.

12:30 bis 13:30, Raum: Foyer und Einstein 1 und 2: 

Mittagspause und Besuch der Ausstellung

13:30 bis 14:15, Raum: Kopernikus 3

13:30 bis 14:15, Raum: Kopernikus 2

13:30 bis 15:10, Raum: Kopernikus 1

Dr. Daniel Kästner: Nachweis der Wechselwirkungsfreiheit in C/C++-Programmen

Paul Tybura: Erfahrungsbericht: Übergang vom Reverse Engineering zu Forward Development

Thomas Schütz: 100 Minuten Intensiv Coaching: Testautomatisierung für Embedded Systeme über alle Ebenen

mehr...

Nachweis der Wechselwirkungsfreiheit in C/C++-Programmen

Die Zulassung von Fahrzeugen in Märkten, die US-Vorschriften folgen, erfordert eine Analyse aller Eingangs- und Ausgangssignale, die die Steuerung oder Diagnose von emissionsrelevanten Teilen oder Systemen beeinflussen. On-Board-Diagnosesysteme (OBD) sind für alle Komponenten und Systeme notwendig, die höhere Emissionen verursachen können.

In diesem Beitrag präsentieren wir eine zuverlässige (engl. „sound“) Analyse auf C/C++-Codeebene, mit der man automatisch herausfinden kann, welche Ausgangssignale von bestimmten Eingangssignalen beeinflusst werden, und umgekehrt. Sie kann auch aufzeigen, dass bestimmte Ein- und Ausgangssignale unabhängig voneinander sind. Sie basiert auf der Kombination eines allgemeinen Taint-Analyse-Systems mit einem zuverlässigen statischen Laufzeitfehler-Analysator, der auch die Auswirkungen von Laufzeitfehlern auf den Daten- und Kontrollfluss berücksichtigt. Die „Soundness“ der Analyse ist besonders wichtig, da sie eine vollständige Daten- und Kontrollabdeckung bietet; insbesondere kann sie garantieren, dass alle Daten- und Funktionszeigerwerte berücksichtigt wurden.

Unser Ansatz kann verwendet werden, um Signalflüsse zu analysieren, Interferenzfreiheit zwischen Softwarekomponenten auf Quellcode-Ebene nachzuweisen, die Übereinstimmung zwischen Quellcode und Softwarearchitektur sicherzustellen und Cybersecurity-Anforderungen zu erfüllen. Wir erklären die theoretischen Grundlagen, stellen unseren Algorithmus zur Interferenzfreiheitsanalyse vor und teilen praktische Erfahrungen aus der Industrie.

Referent: Dr. Daniel Kästner

Dr. Daniel Kästner studierte Informatik und Wirtschaftswissenschaften an der Universität des Saarlandes und promovierte im Jahr 2000. Er ist Mitgründer und CTO der Firma AbsInt Angewandte Informatik GmbH. Dr. Kästner ist Mitglied der MISRA C und MISRA SQM Arbeitsgruppen und des Projekt-Teams Formale Methoden des IEC 61508 Standards. Er ist Autor oder Co-Autor von über 70 begutachteten Veröffentlichungen in den Bereichen Funktionale Sicherheit, Validierung und Verifikation von sicherheitskritischer Software, Cybersecurity, Compilerbau und Programmanalysen für eingebettete Prozessoren.

mehr...

Erfahrungsbericht: Übergang vom Reverse Engineering zu Forward Development

Bei der Entwicklung eines jeden Embedded-Software-Produktes gibt es viele Hindernisse bis zur Freigabe und Vorstellung. Normative Regularien sind zu erfüllen, aber auch der Nachweis, dass das Produkt allen Anforderungen entspricht.

Manchmal können besondere Umstände die Absicherung ausgesprochen herausfordernd gestalten, wie in einem Projekt welches wir erfolgreich begleiten durften.

Es war notwendig mit Hilfe von Reverse Engineering zu Forward Development zu gelangen und dabei das Produkt vollumfänglich per System-Tests abzusichern.

Die vorgefundene Situation erforderte diese Maßnahmen.
Im Vortrag wird der Lösungsansatz beleuchtet, von der Ermittlung der Bedürfnisse des Kunden, bis zur effizienten Aufarbeitung der Anforderungen, und schlussendlich vollständig automatisierte Tests auf Hardware-in-the-Loop Systemen mit hunderten von Testcases.
Der Vortrag beleuchtet die Schwierigkeiten bei der Entwicklung und Absicherung von Embedded-Software-Produkten. Wie erreicht man Effizienzsteigerung im Entwicklungsprozess?

Referent: Paul Tybura

Paul Tybura leitet die Abteilung Medizintechnik der iSyst GmbH und war davor langjährig als Projektleiter und Testmanager für verschiedene Projekte verantwortlich. Mit seinem Team unterstützt er hauptsächlich Hersteller von Medizinprodukten mit Embedded Software bei der Freigabe und Absicherung ihrer Geräte. Ursprünglich aus der Software-Entwicklung kommend, entwickelte sich Paul Tybura immer mehr in Richtung Testing, dies in verschiedenen Branchen und vielen Projekten, von der herstellenden Industrie, über die Avionik, im Automotive-Bereich und mehrere Jahre nun in der Medizintechnik. Seit über 9 Jahren bei der iSyst tätig und aktuell eine Abteilung leitend, die spezialisiert ist auf Systemtests von Embedded-Software Geräten im Medizinbereich. Von der Anforderungsanalyse, über Testideen, Teststrategie und Planung, bis hin zur Umsetzung und Auswertung, unterstützen wir unsere Kunden bei der Automatisierung im Testing.

mehr...

100-Minuten Intensiv Coaching: Testautomatisierung für Embedded Systeme über alle Ebenen

Jede kleine Code-Änderung an einem eingebetteten System kann die schlimmsten Auswirkungen haben. Und wenn man die Probleme zu spät entdeckt und behebt, ist das sehr teuer.
Deshalb sollte es möglich sein, jede Änderung an einem eingebetteten System innerhalb von Minuten zu testen. Nur so kann sichergestellt werden, dass Probleme schnell erkannt und behoben werden können.
Bei reinen Softwareprojekten hilft die vollständige Automatisierung der Tests über Continuous Integration auf allen Ebenen. Hier löst jede Code-Änderung automatisch den Build und Test der kompletten Software aus. So kann ein vollständiger Regressionstest innerhalb von Minuten Fehler in bestehendem und neuem Code aufdecken.
Doch wie kann dies über alle Ebenen bei eingebetteten Systemen erreicht werden? Reine Software-Unit-Tests sind notwendig, aber nicht hinreichend.
In einer kurzen Einführung betrachten wir das Testproblem auf allen Ebenen und was es für Methoden und Technologien gib Tests für Embedded-Systeme umzusetzen und zu automatisieren. Danach werden wir uns in einer offenen Runde verschiedene konkrete Testprobleme ansehen und Lösungen diskutieren.

Bitte bringt Eure Testprobleme und Fragen mit!

Referent: Thomas Schütz

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Projektleiter des Eclipse Projekts eTrice.

14:25 bis 15:10, Raum: Kopernikus 3

14:25 bis 15:10, Raum: Kopernikus 2

seit 13:45 bis 15:10, Raum: Kopernikus 1

Daniel Penning: Agiles Testen für Mikrocontroller-Projekte

Ingo Nickles: Artgerechte Haltung, Aufzucht und Hege der technischen Schuld

Thomas Schütz: 100 Minuten Intensiv Coaching: Testautomatisierung für Embedded Systeme über alle Ebenen

mehr...

Agiles Testen für Mikrocontroller-Projekte

Frühes Testen verbessert die Softwarequalität und spart Zeit.
Im Idealfall kann der Entwickler oder ein anderes Teammitglied den Code direkt prüfen.
Gerade in agilen Projekten wird dieser entwicklungsbegleitende Ansatz wichtig – denn nur so können Inkremente auch mit einer belastbaren Qualität herausgegeben werden.

Doch welche Möglichkeiten gibt es für agiles Testen?
Welche verschiedenen Testebenen gibt es und wie lässt sich hier eine sinnvolle Strategie ableiten?

In diesem Vortrag werden die 3 wichtigsten Testebenen im besonderen Kontext von Embedded-Projekten vorgestellt:

– Unit Tests
– Hardware/Software Integration Tests
– Systemtests

Anhand von Beispielen wird gezeigt, was diese leisten können – und wo die Grenzen liegen.

Referent: Daniel Penning

Daniel Penning studierte Elektrotechnik und arbeitete in Embedded Projekten in der Industrie- und Sicherheitstechnik.
Seine Begeisterung für qualitativ hochwertige Embedded-Entwicklung versucht er regelmäßig auf Konferenzen weiterzugeben.
Als Geschäftsführer bei embeff unterstützt er Kunden mit innovativen Lösungen zur entwicklungsbegleitenden Testautomatisierung.

mehr...

Artgerechte Haltung, Aufzucht und Hege der technischen Schuld

Technische Schuld findet man in jeder Software, mal mehr und mal weniger. Sie gilt als eher lichtscheu und vermehrt sich prächtig solange sie ignoriert wird. Technische Schuld ist sehr beliebt, da sie dabei hilft, auch anspruchsvolle Terminvorgaben einzuhalten ohne übermäßigen Aufwand spendieren zu müssen. Dennoch sind ihr nicht alle Menschen wohlgesonnen, da ihre Pflege langfristig zunehmend mehr Zeit in Anspruch nimmt. Man sagt ihr auch nach, dass sie für Softwarefehler oder sogar Terminverzögerungen verantwortlich sein soll. Wie ist das möglich?

In diesem Vortrag wollen wir der technischen Schuld die Aufmerksamkeit schenken, die sie verdient hat. Welche Arten von technischer Schuld gibt es, wo finden wir sie, wie kommt es zu Ihrer Vermehrung und was können wir dafür tun einem exponentiellen Wachstum entgegenzuwirken. Insbesondere wird die Frage beleuchtet, warum sich technische Schuld nicht mit Softwarequalität verträgt, die sich trotz des kurzfristigen nicht unerheblichen Mehraufwandes wegen der langfristigen Haltungsvorteile zunehmender Beliebtheit erfreut.

Referent: Ingo Nickles

Ingo Nickles blickt auf mehr als 20 Jahre Berufserfahrung in der Softwarentwicklung für embedded Geräte zurück. Seit 2012 ist er Field Application Engineer bei der Vector Informatik GmbH und verantwortlich für Schulungen, Seminare, Präsentationen und den Support. Er hilft Kunden in allen Branchen bei der Optimierung des embedded Software Tests und der Software Qualität.

mehr...

100-Minuten Intensiv Coaching: Testautomatisierung für Embedded Systeme über alle Ebenen

Jede kleine Code-Änderung an einem eingebetteten System kann die schlimmsten Auswirkungen haben. Und wenn man die Probleme zu spät entdeckt und behebt, ist das sehr teuer.
Deshalb sollte es möglich sein, jede Änderung an einem eingebetteten System innerhalb von Minuten zu testen. Nur so kann sichergestellt werden, dass Probleme schnell erkannt und behoben werden können.
Bei reinen Softwareprojekten hilft die vollständige Automatisierung der Tests über Continuous Integration auf allen Ebenen. Hier löst jede Code-Änderung automatisch den Build und Test der kompletten Software aus. So kann ein vollständiger Regressionstest innerhalb von Minuten Fehler in bestehendem und neuem Code aufdecken.
Doch wie kann dies über alle Ebenen bei eingebetteten Systemen erreicht werden? Reine Software-Unit-Tests sind notwendig, aber nicht hinreichend.
In einer kurzen Einführung betrachten wir das Testproblem auf allen Ebenen und was es für Methoden und Technologien gib Tests für Embedded-Systeme umzusetzen und zu automatisieren. Danach werden wir uns in einer offenen Runde verschiedene konkrete Testprobleme ansehen und Lösungen diskutieren.

Bitte bringt Eure Testprobleme und Fragen mit!

Referent: Thomas Schütz

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Projektleiter des Eclipse Projekts eTrice.

15:10 bis 15:40, Raum: Foyer und Einstein 1 und 2

Kaffeepause und Besuch der Ausstellung

15:40 bis 16:25, Raum: Kopernikus 3

15:40 bis 16:25, Raum: Kopernikus 2

15:40 bis 16:25, Raum: Kopernikus 1

Michael Wittner: Security im Variantenwald: Wie die Hyper-Coverage versteckten Code aufdeckt

Royd Lüdtke und Artur Hirsch: In der Ruhe liegt die Kraft – Statische Performance Optimierung

Dr. Jörg Herter: 100 Minuten Kurzworkshop: Sichere und zuverlässige Software durch statische Taint-Analyse: Der Schlüssel zu Safety und Security

mehr...

Security im Variantenwald: Wie die Hyper-Coverage versteckten Code aufdeckt

Bei der Zertifizierung sicherheitskritischer Software wird neben umfangreichen und normgerechten Tests aller Varianten eines Source-Codes ein Nachweis für die vollständige Abdeckung dieses Source-Codes verlangt. Bei der kumulierten Hyper-Coverage wird mit gängigen Coverage-Messungen ein Zusammenhang zwischen Code-Varianten und gemessener Code-Coverage auf der Basis des originalen Source-Codes berechnet. Die natürlichen Grenzen von Coverage-Messungen unterschiedlicher Code-Varianten werden dadurch überbrückt und erlauben eine kumulierte Zusammenfassung auf Quelldateiebene.

Jeglicher Code in einer Programmquelle wird dabei vollständig erfasst, selbst wenn dieser nicht durch Code-Varianten abgedeckt wird. Durch einen Abgleich der ermittelten Coverage-Werte und der Code-Varianten mit der Quelldatei werden versteckte Funktionen und Programmblöcke in der Quelldatei aufgedeckt, was die Security deutlich erhöht.

Referent: Michael Wittner

Dipl.-Inform. Michael Wittner ist seit vielen Jahren im Bereich Software-Entwicklung und Test tätig. Nach dem Studium der Informatik an der TU Berlin arbeitete er als wissenschaftlicher Mitarbeiter der Daimler AG an der Entwicklung von Testmethoden und Testwerkzeugen. Seit 1997 ist er geschäftsführender Gesellschafter der Razorcat Development GmbH, dem Hersteller des Unit-Testtools TESSY und CTE sowie des Testmanagement-Tools ITE und der Testspezifikationssprache CCDL.

mehr...

In der Ruhe liegt die Kraft – Statische Performance Optimierung

Der Einsatz statischer Analysewerkzeuge zur Aufdeckung kritischer Fehler sowie zur Ermittlung von Sicherheitsschwachstellen (SAST) im Quell- und Binärcode ist „Stand der Technik“ und etablierter Bestandteil des Software-Entwicklungsprozesses. Weniger bekannt ist die Möglichkeit, diese Technologie auch zur Performance-Optimierung einzusetzen.
Der Vortrag zeigt, wie mittels statischer Analyse Bereiche mit Optimierungspotenzial im Quellcode aufgefunden und Performance-Engpässe beseitigt werden können.

Referenten: Royd Lüdtke und Artur Hirsch

Royd Lüdtke leitet bei der Firma Verifysoft Technology GmbH den Bereich Pre-Sales und Support für Statische Codeanalysetools. Er hat umfangreiche Berufserfahrung als Applikationsingenieur und Berater bei einer Vielzahl von Firmen und Institutionen wie New Era Of Networks, Sybase, Rogue Wave Software und dem Fraunhofer Institut. Lüdtke studierte in Dortmund Elektrotechnik und Energietechnik, hält mehrere Patente und ist Autor von Veröffentlichungen im IT-Bereich.

Als fortgeschrittener Informatikstudent unterstützt Artur Hirsch Kunden bei technischen Fragen zu den von der Verifysoft Technology GmbH vertriebenen statischen Analysewerkzeugen.

mehr...

Kurzworkshop: Sichere und zuverlässige Software durch statische Taint-Analyse: Der Schlüssel zu Safety und Security

Taint-Analyse kann in vielen Bereichen genutzt werden. Besonders wichtig sind die nachweisbar korrekten und verlässlichen („sound“) Taint-Analysen. Diese sind vor allem in den Bereichen Safety und Security von großer Bedeutung, da sie beweisen können, dass es keine Fehler, Schwachstellen oder unerwünschte Wechselwirkungen zwischen Softwarekomponenten gibt.

Solche Taint-Analysen auf Quellcode-Ebene werden unter anderem für die Analyse des Signalflusses (Signal Flow Analysis) und die Überprüfung der Wechselwirkungsfreiheit von Softwarekomponenten („freedom of interference“) verwendet. Darüber hinaus können sie helfen, sicherheitsrelevante Schwachstellen wie „(OS) Command Injection“ (CWE77 und CWE78) oder „Improper Input Validation“ (CWE20) direkt im Quellcode zu identifizieren und auszuschließen.

In diesem Workshop zeigen wir, wie diese Analysen flexibel eingerichtet und auf die Testfälle des Juliet-Benchmarks angewendet werden können. Außerdem demonstrieren wir die Konfiguration und Auswertung einer Signalflussanalyse, die beispielsweise den Einfluss von Sensordaten auf die Berechnungen einer Steuerungssoftware (wie z.B. einer Motorsteuerung) darstellt.

Referenten: Dr. Jörg Herter

Dr. Jörg Herter studierte Informatik an der Universität des Saarlandes und promovierte dort zum Doktor der Ingenieurwissenschaften. Er forschte sowohl an der Universität des Saarlandes als auch der Hochschule für Technik und Wirtschaft des Saarlandes (HTWdS). Sein derzeitiges Arbeitsgebiet umfaßt das Thema funktionale Sicherheit sowie die formale Validierung und Verifikation sicherheitskritischer Software.
Jörg Herter arbeitet als leitender technischer Berater bei AbsInt und hält regelmäßig Vorlesungen über statische Programmanalyse, eingebettete Systeme und Übersetzerbau an der Hochschule für Technik und Wirtschaft des Saarlandes sowie an der Universität Luxemburg. Sie treffen ihn auch immer wieder auf den vielen Messen, Konferenzen und Ausstellungen, auf denen AbsInt jedes Jahr vertreten ist.

16:35 bis 17:20, Raum: Kopernikus 3

16:35 bis 17:20, Raum: Kopernikus 2

seit 15:45 bis 17:20, Raum: Kopernikus 1

Kathrin Löffel und David Lang: Effiziente On-Target-Coveragemessung mit Testwell CTC++ – Erfahrungsbericht aus einer embedded Produktentwicklung

Martin Heininger: KI-Copiloten: Showeffekte oder echte Unterstützung im Requirements- und Test Engineering?

Fortsetzung: Dr. Jörg Herter: 100 Minuten Kurzworkshop: Sichere und zuverlässige Software durch statische Taint-Analyse: Der Schlüssel zu Safety und Security

mehr...

Effiziente On-Target-Coveragemessung mit Testwell CTC++ – Erfahrungsbericht aus einer embedded Produktentwicklung

Als unabhängiger und führender Entwicklungsdienstleister für embedded Systeme spezialisiert sich embeX seit mehr als 20 Jahren auf die Funktionale Sicherheit. In unserer täglichen Arbeit stellen wir uns der Herausforderung die Sicherheit und Zuverlässigkeit von ressourcenlimitierten Systemen unter Berücksichtigung von normativen Anforderungen, Kosteneffektivität und individuellen Kundenwünschen umzusetzen.

In einem Fallbeispiel demonstrieren wir, wie CTC++ in einem realen embedded-Projekt eingesetzt wurde, um die Codeabdeckung zu erfassen, zu analysieren und auszuwerten. Dabei gehen wir u.a. auf die eingesetzte Toolchain und die Integration in ein Testsystem ein. Wir legen dabei besondere Aufmerksamkeit auf die Herausforderungen, die in der Praxis auftraten und die Ansätze, mit denen diese gelöst wurden.

Abschließend stellen wir die Ergebnisse vor, diskutieren unsere Erkenntnisse im Hinblick auf zukünftige Projekte und ziehen ein abschließendes Resümee.

Referenten: Kathrin Löffel und David Lang

Kathrin Löffel hat Medieninformatik und Mathematik studiert und beide Studiengänge mit einem Bachelor abgeschlossen. 2012 begann sie ihre Tätigkeit als Software-Testerin bei der Firma embeX GmbH, wo sie sich auf die Verifikation in der funktionalen Sicherheit spezialisierte. Im Jahr 2017 übernahm sie dort die Leitung des Zentralen Dienstes für Verifikation, in dem sie zusammen mit einem 17-köpfigen Team für die Begleitung aller Verifikationstätigkeiten verantwortlich ist. Dies umfasst sowohl die klassische Softwareverifikation mit statischer Codeanalyse, Code Reviews und Unittests, als auch Integrationstests und FITs bis hin zur Produktverifikation. Zu den eingesetzten Tools gehören unter anderem Klocwork, Collaborator, Tessy, CTC, TestStand und LabView. Schulungen und Workshops im Bereich SW-Verifikation gehören dabei ebenfalls zu ihrem Arbeitsalltag.

David Lang nahm 2013 ein duales Bachelor-Studium Elektrotechnik bei der Firma embeX GmbH auf. In einem Masterstudium „Embedded System Engineering“ vertiefte er seine Kenntnisse.

Im Jahr 2019 startete David Lang bei der Firma embeX GmbH als Devops-Ingenieur. Im Rahmen seiner Tätigkeit entwickelte er die Continuos-Integration-Umgebung weiter und betreute den Einsatz der statischen Codeanalyse in Safety-Projekten.

2022 erweiterte er sein Aufgabengebiet um klassische Verifikationsaufgaben wie z.B. Code-Reviews und Unittests. Zusätzlich übernahm er die Tool-Verantwortung für Testwell CTC++ und begleitete mehrere Projekte bei der Software-Coverage-Messung auf Produkttestebene.

mehr...

KI-Copiloten: Showeffekte oder echte Unterstützung im Requirements- und Test Engineering?

Der Vortrag zeigt im Ersten Teil die Ergebnisse eines Versuchs auf, bei dem ChatGPT und dem KI-Copiloten eines Requirementdatenbank Herstellers systematisch verschiedene Requirementstypen gegeben wurde um diese zu bewerten, zu verbessern und Lücken aufzudecken.
Es handelt sich unter anderem um funktionale Requirements mit verschiedenen Komplexitätsstufen, Timing&Performance Requirements, Vertragsrequirements, Prozessrequirements.
Der zweiten Teil des Vortrags stellt die Erzeugung von Testfällen durch den KI-Copiloten und ChatCPT aus oben genannten Requirements in den Mittelpunkt der Betrachtungen.
Die jeweiligen Ergebnisse für die Verbesserung der Requirements und die Erstellung von Testfällen werden dann systematisch bewertet. Folgende Aspekte werden dabei betrachtet und mit den Zuhörern diskutiert:
– die Qualität des notwendigen Promt-Engineering
– die fachliche Qualität der gelieferten Ergebnisse für die Requirements
– die fachliche Qualität der gelieferten Ergebnisse für die Testfälle
– wiederkehrende Muster welche der KI-Copilot erzeugt bei wiederholt gleicher Anfrage
– Erfüllung der Qualitätsanforderungen von verschiedenen Funktionalen Sicherheitsstandards
– Kosten/Nutzen für den praktischen Einsatz
Abschließend diskutiert der Vortrag was aktuell der praktikable Ansatz sein kann, für das Thema Toolqualifikation, wenn diese KI-Copiloten in Projekten der Funktionalen Sicherheit eingesetzt werden sollen.

Referent: Martin Heininger

Dipl.-Ing. (FH) Martin Heininger, ist seit Anfang 2018 Inhaber der HEICON – Global Engineering GmbH, einem Beratungsunternehmen für sicherheitsrelvante, software-intensive embedded Systeme.
Zuvor war er 12 Jahren als freiberuflicher Berater tätig. Er verfügt über 20 Jahre Erfahrung im Bereich Entwicklungsprozessen und Methoden. Besonderer Schwerpunkte bilden das Requirement Engineering und Test Engineering.
Der Autor berät und betreut Projekte in der Luftfahrt, der Automatisierungs- und Bahntechnik sowie in der Automobilindustrie.

mehr...

Kurzworkshop: Sichere und zuverlässige Software durch statische Taint-Analyse: Der Schlüssel zu Safety und Security

Taint-Analyse kann in vielen Bereichen genutzt werden. Besonders wichtig sind die nachweisbar korrekten und verlässlichen („sound“) Taint-Analysen. Diese sind vor allem in den Bereichen Safety und Security von großer Bedeutung, da sie beweisen können, dass es keine Fehler, Schwachstellen oder unerwünschte Wechselwirkungen zwischen Softwarekomponenten gibt.

Solche Taint-Analysen auf Quellcode-Ebene werden unter anderem für die Analyse des Signalflusses (Signal Flow Analysis) und die Überprüfung der Wechselwirkungsfreiheit von Softwarekomponenten („freedom of interference“) verwendet. Darüber hinaus können sie helfen, sicherheitsrelevante Schwachstellen wie „(OS) Command Injection“ (CWE77 und CWE78) oder „Improper Input Validation“ (CWE20) direkt im Quellcode zu identifizieren und auszuschließen.

In diesem Workshop zeigen wir, wie diese Analysen flexibel eingerichtet und auf die Testfälle des Juliet-Benchmarks angewendet werden können. Außerdem demonstrieren wir die Konfiguration und Auswertung einer Signalflussanalyse, die beispielsweise den Einfluss von Sensordaten auf die Berechnungen einer Steuerungssoftware (wie z.B. einer Motorsteuerung) darstellt.

Referenten: Dr. Jörg Herter

Dr. Jörg Herter studierte Informatik an der Universität des Saarlandes und promovierte dort zum Doktor der Ingenieurwissenschaften. Er forschte sowohl an der Universität des Saarlandes als auch der Hochschule für Technik und Wirtschaft des Saarlandes (HTWdS). Sein derzeitiges Arbeitsgebiet umfaßt das Thema funktionale Sicherheit sowie die formale Validierung und Verifikation sicherheitskritischer Software.
Jörg Herter arbeitet als leitender technischer Berater bei AbsInt und hält regelmäßig Vorlesungen über statische Programmanalyse, eingebettete Systeme und Übersetzerbau an der Hochschule für Technik und Wirtschaft des Saarlandes sowie an der Universität Luxemburg. Sie treffen ihn auch immer wieder auf den vielen Messen, Konferenzen und Ausstellungen, auf denen AbsInt jedes Jahr vertreten ist.

17:30 bis 18:15, Raum: Kopernikus 3

17:30 bis 18:15, Raum: Kopernikus 2

17:30 bis 18:15, Raum: Kopernikus 1

Dr. Richard Kölbl: Impulsvortrag: „KI-unterstütztes Testen im Embedded-Bereich“

Bernd Kettlein: Automatisiertes Testing mit konfigurierbaren Lasten

Vardhan Gunna: Threat modelling / TARA und Fuzztesting – Identifikation, Bewertung und Entdecken von Schwachstellen

folgt...
mehr...

Automatisiertes Testing mit konfigurierbaren Lasten

Aktuelle Trends bei Lichtsystemen zeigen eine zunehmende Komplexität. Diese technische Transformation bringt aber neue Herausforderungen mit sich – etwa, wie diese Systeme automatisiert abgesichert werden können.
Die steigenden Anforderungen erfordern neue Teststrategien. Innovative Testverfahren- und systeme machen es nun möglich.

Referent: Bernd Kettlein

Seit nunmehr 18 Jahren ist Bernd Kettlein Teil der CREAT GmbH, früher bekannt als DELVIS GmbH, und hat im Unternehmen kontinuierlich weitereführende Aufgaben übernommen. Nach dem Studium der Mechatronik in Nürnberg und einem Aufbaustudium zum MBA in Regensburg begann er seine Karriere als Entwickler im Bereich Mechatronik und Optikentwicklung am Standort in Regensburg. Mit seiner Expertise und seinem Engagement übernahm er schnell anspruchsvollere Aufgaben am Standort als Leiter der Bereiche Lichttechnik/Konstruktion und konnte seine Fähigkeiten in verschiedenen Bereichen ausbauen. Heute ist er als stellvertretender Geschäftsleiter tätig und verantwortet insbesondere die Bereiche automatisiertes Testing sowie verschiedene Bereiche innerhalb der Geschäftsführung. Mit einem Fokus auf den Automotive-Sektor betreut er Kunden vor allem in Deutschland und Europa, ist jedoch auch bei internationalen Projekten aktiv. Ein Schwerpunkt der Arbeit liegt auf der Entwicklung von Steuergeräten und Elektronikkomponenten, deren Integration von Software, sowie der Durchführung von Hardware-in-the-Loop-Tests (HIL). Darüber hinaus leitet er die Prüfstandsentwicklung, um die Qualität und Effizienz von Tests und Validierungen, sowie den Automatisierungsgrad kontinuierlich zu steigern.

folgt...

18:15 bis 19:30, Raum: Foyer und Einstein 1 und 2

Beginn der Abendveranstaltung in der Ausstellung

19:30 bis 20:30. Raum Kopernikus 3

Abendkeynote Georg Haupt: Noch viel zu Testen du hast – Ungewisser Blick in die Zukunft des Testens

Ein spannender, humorvoller und trotzdem tiefgründiger Einblick in die mögliche Zukunft des Testens.

mehr...

Noch viel zu Testen du hast – Ungewisser Blick in die Zukunft des Testens“

Ein spannender, humorvoller und trotzdem tiefgründiger Einblick in die mögliche Zukunft des Testens.

n einer Galaxie, nicht allzu fern von hier, steht eine Gruppe tapferer Softwaretester vor der Herausforderung, die Zukunft ihres Fachgebiets zu navigieren.

Die nächste Episode unserer Geschichte projiziert uns in das Jahr 2030 und untersucht dabei, was sich verändern, was neu kommen und was überflüssig werden könnte im Bereich des Softwaretestens.

Mit rasender Geschwindigkeit nähert sich eine neue Ära an, getrieben durch die disruptiven Kräfte von künstlicher Intelligenz und maschinellem Lernen. Diese Mächte ebnet den Weg für fortschrittliche automatisierte Tests, die die Branche revolutionieren und das Universum des Softwaretestens neu definieren.

Unsere Testerkommandos müssen sich mit diesem Wandel befassen und die Testautomatisierung weiter vorantreiben. In dieser sich rasch verändernden Galaxie wird es immer wichtiger, wie Tester die Schnittstelle zwischen Architektur und Test gestalten.

Jedoch ist das Beherrschen der Macht der Technologie nur eine Seite der Medaille. Unsere heldenhaften Tester müssen auch ihre Soft Skills weiterentwickeln. Durch effektive Kommunikation, kreatives Problemlösen und die Bereitschaft zur Anpassung können unsere Softwaretester im Angesicht schwieriger Herausforderungen bestehen.

Die Tester setzen ihre Reise fort, um technische Fähigkeiten zu meistern, die in der neuen Ära des Testens von entscheidender Bedeutung sind. Sie bahnen sich ihren Weg durch die Galaxie und gewinnen wichtige technische Fertigkeiten um ihre Mission zu erfüllen.

Am Rande der Galaxie blickt unsere Mannschaft auf die aufkommende Debatte zwischen Spezialisierung und Verallgemeinerung. Sollen sie sich auf bestimmte Bereiche spezialisieren oder ist es vorteilhaft, sich auf breitere Fähigkeiten zu konzentrieren?

Kommen Sie mit auf diese galaktische Reise, während wir durch die Untiefen des Unbekannten navigieren und wertvolle Erkenntnisse über die Zukunft des Softwaretestens gewinnen.

Schon Meister Joda sagte: „Noch viel zu lernen du hast, mein junger Padawan“.

Möge die Qualität mit uns sein.

 

Referent: Georg Haupt

Als Quality Evangelist lautet mein Motto: „Aus der Praxis für die Praxis!“ Denn als Test- und Qualitäts-Management-Experte blicke ich auf 20 Jahre praktische Erfahrung für sowohl agile als auch klassische Soft- und Hardwaretests zurück. Weitere Schwerpunkte sind für mich: Test-Automatisierung, Test-Analyse sowie Security-Tests. Hierbei liegt mir besonders teamübergreifende und agile Qualitätssicherung am Herzen.

Ich lege hohen Wert auf eine ausgewogene Mischung aus manuellen, explorativen und automatisierten Tests. Das Entwickeln und Etablieren von Testmethoden und Prozessen ist für mich langjährige Praxis. Darüber hinaus biete ich Ihnen praktische Erfahrung in der Einführung von teamübergreifenden Test- und Testmanagementwerkzeugen und Prozessen.

Privat bin ich ein experimentell verspielter Smart Home-Technikfreak. Und dazu seit über 25 Jahren als DJ, Webradiomoderator und Cineast unterwegs. Aber nichts ist schöner als ein anständiger Wein mit der Familie, entweder bei einem guten Film im Heimkino oder beim Brettspiel.

20:30 bis 23:00, Raum: Foyer und Einstein 1 und 2

Fortsetzung der Abendveranstaltung in der Ausstellung

Änderungen vorbehalten