Willkommen zur Embedded Testing 2024

28. August 2023: Die Webseite zur Embedded Testing ist fertig gestellt und erste Gespräche mit potentiellen Speakern, Sponsoren und Teilnehmenden laufen. Der Call for Papers ist eröffnet und läuft noch bis zum 12. November 2023.

08. November 2023: In vier Tagen endet der Call for Papers zur Embedded Testing

Evently

News zur Embedded Testing 2024

Simply enter your keyword and we will help you find what you need.

What are you looking for?

Image Alt

Agenda Tag 1

Embedded Testing 2025

Dienstag, 25. Februar 2025

08:00 bis 09:00, Foyer

Begrüßungskaffee und Registrierung

09:00 bis 09:15, Kopernikus 2 und 3

Konferenzeröffnung

09:15 bis 10:15, Kopernikus 2 und 3

Eröffnungskeynote: Dr. Elmar Jürgens: Vom Wiegen allein wird die Sau nicht fett

mehr...

Vom Wiegen allein wird die Sau nicht fett

Referent: Dr. Elmar Jürgens

Dr. Elmar Juergens hat über statische Codeanalyse promoviert und für seine Doktorarbeit den Software-Engineering-Preis der Ernst Denert-Stiftung erhalten. Er ist Mitgründer der CQSE GmbH und begleitet seit zehn Jahren Teams bei der Verbesserung ihrer Qualitätssicherungs- und Testprozesse. Juergens spricht regelmäßig auf Forschungs- und Industriekonferenzen und wurde für seine Vorträge mehrfach ausgezeichnet. Elmar Jürgens wurde 2015 zum Junior Fellow der Gesellschaft für Informatik ernannt und 2024 mit den Deutschen Preis für Software Qualität ausgezeichnet.

10:30 bis 11:30, Kopernikus 2 und 3

Keynote: Prof. Dr. Christof Ebert: Advances in Security Testing

mehr...

Advances in Security Testing

Hacking is accelerating with the convergence of product IT and enterprise IT. For instance, the software-defined vehicle (SDV) converges product IT in the vehicle with enterprise IT in the cloud and backbone infrastructure. Embedded systems are today the primary target for hackers because systems and components have high levels of always-on, connectivity, and smart application programming interfaces (APIs) for software updates and facilitate remote attacks. Standardized software stacks reduce the entry barrier for malicious actors. Starter kits for all sorts of malware are available, increasingly fueled by AI tools. With software and data being manipulated, the initial qualified functionality of systems is no longer guaranteed.

Risk-oriented security test matters across domains from medical, to transport, industry and automotive. Yet, many companies have no systematic security testing, independent pen-test nor dedicated R&D security team. With classic security testing, vulnerability detection is inefficient and incomplete. Four methods are illustrated that beef up your cybersecurity verification and validation: Generative AI to advance Security Analysis, Software Quality Analysis, Fuzzing and Grey-Box Penetration Test. Based on our industry experiences at Vector we show in this presentation the benefits of independent verification and validation for cybersecurity. The presentation will show methods to mitigate cybersecurity risks in embedded systems, such as deploying novel test coverage methods for grey-box Pen-Test. Fresh from our own labs we will show how GenAI can make software-defined systems more robust and secure.

Referent: Prof. Dr. Christof Ebert

Christof Ebert is the managing director of Vector Consulting Services. A trusted advisor for companies and member of industry boards, he supports clients worldwide to sustainably improve product strategy, IT and development and to manage transformations. Dr. Ebert is a professor at University of Stuttgart and Sorbonne University in Paris. He has founded the Robo-Test incubator and holds several patents in the field of autonomous systems. Contact him at christof.ebert@vector.com, www.vector.com/consulting

11:30 bis 12:00, Foyer und Einstein 1 und 2

Kaffeepause und Besuch der Ausstellung

12:00 bis 12:45, Raum: Kopernikus 3

Andreas Sczepansky: Effizienzsteigerung in der Software-Qualitätssicherung für Embedded Systems durch Statische Analyse, Dynamisches Testen und Software Metriken

12:00 bis 12:45, Raum: Kopernikus 2

Thomas Schütz: Varianten und Produktlinien für Embedded Systeme testen

mehr...

Effizienzsteigerung in der Software-Qualitätssicherung für Embedded Systems durch Statische Analyse, Dynamisches Testen und Software Metriken

In der Entwicklung von Embedded Systems stellt die Sicherstellung der Softwarequalität eine zentrale Herausforderung dar. Besonders in sicherheitskritischen Anwendungen, wie der Automobilindustrie, Medizintechnik oder industriellen Steuerungen, sind hohe Zuverlässigkeit und Funktionalität unter begrenzten Systemressourcen essenziell. Dieser Vortrag beleuchtet den effizienten Einsatz von statischer Analyse, dynamischem Testen und Softwaremetriken, um die Testeffizienz und Fehleridentifikation in Embedded Systems zu optimieren.

Die statische Analyse erlaubt es, potenzielle Schwachstellen im Code frühzeitig, noch vor der Testphase, zu identifizieren. Dies ist besonders nützlich, um typische Fehler wie Pufferüberläufe, Nullzeigerzugriffe oder Timing-Probleme in sicherheitskritischen Anwendungen bereits während der Entwicklungsphase zu beheben. Ergänzend dazu bietet das dynamische Testen die Möglichkeit, Softwarekomponenten in einer realistischen Umgebung zu überprüfen und ihr Verhalten zur Laufzeit zu evaluieren. Die Kombination aus beiden Ansätzen verbessert die Fehlerentdeckung signifikant und erhöht die Testabdeckung.

Darüber hinaus spielen Softwaremetriken eine wichtige Rolle bei der Messung und Analyse der Testqualität und Effizienz. Metriken wie Codeabdeckung, Zyklomatische Komplexität und Fehlerraten helfen nicht nur, die Codequalität messbar zu machen, sondern geben auch wertvolle Einblicke in die Komplexität und die Schwachstellen des Systems. Mit Hilfe dieser Metriken kann die Teststrategie kontinuierlich angepasst werden, um kritische Bereiche effizienter abzudecken und Ressourcen gezielter einzusetzen.

Der Vortrag richtet sich an Softwareingenieure und Testverantwortliche, die ihre Teststrategie für Embedded Systems verbessern und eine Balance zwischen Qualität, Zeit und Kosten erreichen möchten. Anhand praktischer Beispiele wird gezeigt, wie statische Analyse, dynamisches Testen und Softwaremetriken ineinandergreifen, um eine ganzheitliche und skalierbare Qualitätssicherung zu gewährleisten.

Referent: Andreas Sczepansky

Andreas Sczepansky ist Gründer und Geschäftsführer der Firma QA Systems GmbH.
Nach seiner Ausbildung als Informationselektroniker studiert Andreas Sczepansky Technische Informatik an der Fachhochschule für Technik in Esslingen. Er beginnt nach erfolgreichem Abschluss seines Studiums im Support von eingebetteten Cross-Software-Tools für Tasking Software Deutschland. 1992 wechselt er in den Vertrieb von Cross-Software-Tools für Embedded Systems zur Firma CAD-UL in Ulm. Bereits 1994 wird Andreas Sczepansky „Director of Marketing and Sales“ bei CAD-UL und etabliert ein erfolgreiches weltweites Vertriebsnetz.

1996 gründet Andreas Sczepansky die QA Systems GmbH in Stuttgart. Seinen Fokus legt der Diplom-Ingenieur auf das Wachstum des Unternehmens und den Ausbau des Kundenstamms. 2012 kauft Andreas Sczepansky die beiden Produktlinien Cantata und AdaTEST 95 und stärkt damit die internationale Ausrichtung des Unternehmens.

mehr...

Varianten und Produktlinien für Embedded Systeme testen

Viele Produkte werden inzwischen in sehr vielen verschiedenen Varianten geliefert. Doch wie kann ich durch Tests sicherstellen, dass alle Varianten funktionieren – ohne dass dabei die Komplexität explodiert?
Bei der Entwicklung und Test von Varianten und Produktlinien wird man in der Regel mit folgenden Fragen konfrontiert:
– Welchen Arten von Variabilität gibt es?
– Wie hängen Varianten und Produktlinie zusammen?
– Wie kann man die Variabilität beschreiben?
– Wie kann man die Variabilität in der Produktarchitektur umsetzen und konfigurieren?
– Wie kann man mit überschaubarem Aufwand alle Produktvarianten testen?
Im Vortrag betrachten wir diese Themen zunächst im Detail. Anschließend zeigen wir, wie man strukturiert Variabilität in Tests für Embedded-Systeme beschreiben und umsetzen kann. Der Vortrag endet mit einer Live-Demo eines Varianten-Tests.

Referent: Thomas Schütz

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Projektleiter des Eclipse Projekts eTrice.

12:45 bis 13:45, Raum: Foyer und Einstein 1 und 2: 

Mittagspause und Besuch der Ausstellung

13:45 bis 14:30, Raum: Kopernikus 3

13:45 bis 14:30, Raum: Kopernikus 2

13:45 bis 15:30, Raum: Kopernikus 1

Dr. Daniel Kästner: Nachweis der Wechselwirkungsfreiheit in C/C++-Programmen

Paul Tybura: Erfahrungsbericht: Übergang vom Reverse Engineering zu Forward Development

Thomas Schütz: 100 Minuten Intensiv Coaching: Testautomatisierung für Embedded Systeme über alle Ebenen

mehr...

Nachweis der Wechselwirkungsfreiheit in C/C++-Programmen

Die Zulassung von Fahrzeugen in Märkten, die US-Vorschriften folgen, erfordert eine Analyse aller Eingangs- und Ausgangssignale, die die Steuerung oder Diagnose von emissionsrelevanten Teilen oder Systemen beeinflussen. On-Board-Diagnosesysteme (OBD) sind für alle Komponenten und Systeme notwendig, die höhere Emissionen verursachen können.

In diesem Beitrag präsentieren wir eine zuverlässige (engl. „sound“) Analyse auf C/C++-Codeebene, mit der man automatisch herausfinden kann, welche Ausgangssignale von bestimmten Eingangssignalen beeinflusst werden, und umgekehrt. Sie kann auch aufzeigen, dass bestimmte Ein- und Ausgangssignale unabhängig voneinander sind. Sie basiert auf der Kombination eines allgemeinen Taint-Analyse-Systems mit einem zuverlässigen statischen Laufzeitfehler-Analysator, der auch die Auswirkungen von Laufzeitfehlern auf den Daten- und Kontrollfluss berücksichtigt. Die „Soundness“ der Analyse ist besonders wichtig, da sie eine vollständige Daten- und Kontrollabdeckung bietet; insbesondere kann sie garantieren, dass alle Daten- und Funktionszeigerwerte berücksichtigt wurden.

Unser Ansatz kann verwendet werden, um Signalflüsse zu analysieren, Interferenzfreiheit zwischen Softwarekomponenten auf Quellcode-Ebene nachzuweisen, die Übereinstimmung zwischen Quellcode und Softwarearchitektur sicherzustellen und Cybersecurity-Anforderungen zu erfüllen. Wir erklären die theoretischen Grundlagen, stellen unseren Algorithmus zur Interferenzfreiheitsanalyse vor und teilen praktische Erfahrungen aus der Industrie.

Referent: Dr. Daniel Kästner

Dr. Daniel Kästner studierte Informatik und Wirtschaftswissenschaften an der Universität des Saarlandes und promovierte im Jahr 2000. Er ist Mitgründer und CTO der Firma AbsInt Angewandte Informatik GmbH. Dr. Kästner ist Mitglied der MISRA C und MISRA SQM Arbeitsgruppen und des Projekt-Teams Formale Methoden des IEC 61508 Standards. Er ist Autor oder Co-Autor von über 70 begutachteten Veröffentlichungen in den Bereichen Funktionale Sicherheit, Validierung und Verifikation von sicherheitskritischer Software, Cybersecurity, Compilerbau und Programmanalysen für eingebettete Prozessoren.

mehr...

Erfahrungsbericht: Übergang vom Reverse Engineering zu Forward Development

Bei der Entwicklung eines jeden Embedded-Software-Produktes gibt es viele Hindernisse bis zur Freigabe und Vorstellung. Normative Regularien sind zu erfüllen, aber auch der Nachweis, dass das Produkt allen Anforderungen entspricht.

Manchmal können besondere Umstände die Absicherung ausgesprochen herausfordernd gestalten, wie in einem Projekt welches wir erfolgreich begleiten durften.

Es war notwendig mit Hilfe von Reverse Engineering zu Forward Development zu gelangen und dabei das Produkt vollumfänglich per System-Tests abzusichern.

Die vorgefundene Situation erforderte diese Maßnahmen.
Im Vortrag wird der Lösungsansatz beleuchtet, von der Ermittlung der Bedürfnisse des Kunden, bis zur effizienten Aufarbeitung der Anforderungen, und schlussendlich vollständig automatisierte Tests auf Hardware-in-the-Loop Systemen mit hunderten von Testcases.
Der Vortrag beleuchtet die Schwierigkeiten bei der Entwicklung und Absicherung von Embedded-Software-Produkten. Wie erreicht man Effizienzsteigerung im Entwicklungsprozess?

Referent: Paul Tybura

Paul Tybura leitet die Abteilung Medizintechnik der iSyst GmbH und war davor langjährig als Projektleiter und Testmanager für verschiedene Projekte verantwortlich. Mit seinem Team unterstützt er hauptsächlich Hersteller von Medizinprodukten mit Embedded Software bei der Freigabe und Absicherung ihrer Geräte. Ursprünglich aus der Software-Entwicklung kommend, entwickelte sich Paul Tybura immer mehr in Richtung Testing, dies in verschiedenen Branchen und vielen Projekten, von der herstellenden Industrie, über die Avionik, im Automotive-Bereich und mehrere Jahre nun in der Medizintechnik. Seit über 9 Jahren bei der iSyst tätig und aktuell eine Abteilung leitend, die spezialisiert ist auf Systemtests von Embedded-Software Geräten im Medizinbereich. Von der Anforderungsanalyse, über Testideen, Teststrategie und Planung, bis hin zur Umsetzung und Auswertung, unterstützen wir unsere Kunden bei der Automatisierung im Testing.

mehr...

100-Minuten Intensiv Coaching: Testautomatisierung für Embedded Systeme über alle Ebenen

Jede kleine Code-Änderung an einem eingebetteten System kann die schlimmsten Auswirkungen haben. Und wenn man die Probleme zu spät entdeckt und behebt, ist das sehr teuer.
Deshalb sollte es möglich sein, jede Änderung an einem eingebetteten System innerhalb von Minuten zu testen. Nur so kann sichergestellt werden, dass Probleme schnell erkannt und behoben werden können.
Bei reinen Softwareprojekten hilft die vollständige Automatisierung der Tests über Continuous Integration auf allen Ebenen. Hier löst jede Code-Änderung automatisch den Build und Test der kompletten Software aus. So kann ein vollständiger Regressionstest innerhalb von Minuten Fehler in bestehendem und neuem Code aufdecken.
Doch wie kann dies über alle Ebenen bei eingebetteten Systemen erreicht werden? Reine Software-Unit-Tests sind notwendig, aber nicht hinreichend.
In einer kurzen Einführung betrachten wir das Testproblem auf allen Ebenen und was es für Methoden und Technologien gib Tests für Embedded-Systeme umzusetzen und zu automatisieren. Danach werden wir uns in einer offenen Runde verschiedene konkrete Testprobleme ansehen und Lösungen diskutieren.

Bitte bringt Eure Testprobleme und Fragen mit!

Referent: Thomas Schütz

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Projektleiter des Eclipse Projekts eTrice.

14:45 bis 15:30, Raum: Kopernikus 3

14:45 bis 15:30, Raum: Kopernikus 2

seit 13:45 bis 15:30, Raum: Kopernikus 1

Daniel Penning: Agiles Testen für Mikrocontroller-Projekte

Ingo Nickles: Artgerechte Haltung, Aufzucht und Hege der technischen Schuld

Thomas Schütz: 100 Minuten Intensiv Coaching: Testautomatisierung für Embedded Systeme über alle Ebenen

mehr...

Agiles Testen für Mikrocontroller-Projekte

Frühes Testen verbessert die Softwarequalität und spart Zeit.
Im Idealfall kann der Entwickler oder ein anderes Teammitglied den Code direkt prüfen.
Gerade in agilen Projekten wird dieser entwicklungsbegleitende Ansatz wichtig – denn nur so können Inkremente auch mit einer belastbaren Qualität herausgegeben werden.

Doch welche Möglichkeiten gibt es für agiles Testen?
Welche verschiedenen Testebenen gibt es und wie lässt sich hier eine sinnvolle Strategie ableiten?

In diesem Vortrag werden die 3 wichtigsten Testebenen im besonderen Kontext von Embedded-Projekten vorgestellt:

– Unit Tests
– Hardware/Software Integration Tests
– Systemtests

Anhand von Beispielen wird gezeigt, was diese leisten können – und wo die Grenzen liegen.

Referent: Daniel Penning

Daniel Penning studierte Elektrotechnik und arbeitete in Embedded Projekten in der Industrie- und Sicherheitstechnik.
Seine Begeisterung für qualitativ hochwertige Embedded-Entwicklung versucht er regelmäßig auf Konferenzen weiterzugeben.
Als Geschäftsführer bei embeff unterstützt er Kunden mit innovativen Lösungen zur entwicklungsbegleitenden Testautomatisierung.

mehr...

Artgerechte Haltung, Aufzucht und Hege der technischen Schuld

Technische Schuld findet man in jeder Software, mal mehr und mal weniger. Sie gilt als eher lichtscheu und vermehrt sich prächtig solange sie ignoriert wird. Technische Schuld ist sehr beliebt, da sie dabei hilft, auch anspruchsvolle Terminvorgaben einzuhalten ohne übermäßigen Aufwand spendieren zu müssen. Dennoch sind ihr nicht alle Menschen wohlgesonnen, da ihre Pflege langfristig zunehmend mehr Zeit in Anspruch nimmt. Man sagt ihr auch nach, dass sie für Softwarefehler oder sogar Terminverzögerungen verantwortlich sein soll. Wie ist das möglich?

In diesem Vortrag wollen wir der technischen Schuld die Aufmerksamkeit schenken, die sie verdient hat. Welche Arten von technischer Schuld gibt es, wo finden wir sie, wie kommt es zu Ihrer Vermehrung und was können wir dafür tun einem exponentiellen Wachstum entgegenzuwirken. Insbesondere wird die Frage beleuchtet, warum sich technische Schuld nicht mit Softwarequalität verträgt, die sich trotz des kurzfristigen nicht unerheblichen Mehraufwandes wegen der langfristigen Haltungsvorteile zunehmender Beliebtheit erfreut.

Referent: Ingo Nickles

Ingo Nickles blickt auf mehr als 20 Jahre Berufserfahrung in der Softwarentwicklung für embedded Geräte zurück. Seit 2012 ist er Field Application Engineer bei der Vector Informatik GmbH und verantwortlich für Schulungen, Seminare, Präsentationen und den Support. Er hilft Kunden in allen Branchen bei der Optimierung des embedded Software Tests und der Software Qualität.

mehr...

100-Minuten Intensiv Coaching: Testautomatisierung für Embedded Systeme über alle Ebenen

Jede kleine Code-Änderung an einem eingebetteten System kann die schlimmsten Auswirkungen haben. Und wenn man die Probleme zu spät entdeckt und behebt, ist das sehr teuer.
Deshalb sollte es möglich sein, jede Änderung an einem eingebetteten System innerhalb von Minuten zu testen. Nur so kann sichergestellt werden, dass Probleme schnell erkannt und behoben werden können.
Bei reinen Softwareprojekten hilft die vollständige Automatisierung der Tests über Continuous Integration auf allen Ebenen. Hier löst jede Code-Änderung automatisch den Build und Test der kompletten Software aus. So kann ein vollständiger Regressionstest innerhalb von Minuten Fehler in bestehendem und neuem Code aufdecken.
Doch wie kann dies über alle Ebenen bei eingebetteten Systemen erreicht werden? Reine Software-Unit-Tests sind notwendig, aber nicht hinreichend.
In einer kurzen Einführung betrachten wir das Testproblem auf allen Ebenen und was es für Methoden und Technologien gib Tests für Embedded-Systeme umzusetzen und zu automatisieren. Danach werden wir uns in einer offenen Runde verschiedene konkrete Testprobleme ansehen und Lösungen diskutieren.

Bitte bringt Eure Testprobleme und Fragen mit!

Referent: Thomas Schütz

Thomas Schütz hat einen Abschluss in Luft- und Raumfahrttechnik der Universität München und ist Geschäftsführer und Berater von Protos Software, die er 1997 gegründet hat. Er war als Projektleiter oder Architekt in vielen Projekten mit dem Fokus auf modellbasierte Entwicklung und Test für komplexe Embedded Systeme tätig. Darüber hinaus ist er Product Owner der PROTOS miniHIL Testing Toolchain und Projektleiter des Eclipse Projekts eTrice.

15:30 bis 16:00, Raum: Foyer und Einstein 1 und 2

Kaffeepause und Besuch der Ausstellung

16:00 bis 16:45, Raum: Kopernikus 3

16:00 bis 16:45, Raum: Kopernikus 2

16:00 bis 17:45, Raum: Kopernikus 1

Michael Wittner: Security im Variantenwald: Wie die Hyper-Coverage versteckten Code aufdeckt

Royd Lüdtke und Artur Hirsch: In der Ruhe liegt die Kraft – Statische Performance Optimierung

Dr. Jörg Herter: 100 Minuten Kurzworkshop: Sichere und zuverlässige Software durch statische Taint-Analyse: Der Schlüssel zu Safety und Security

mehr...

Security im Variantenwald: Wie die Hyper-Coverage versteckten Code aufdeckt

Bei der Zertifizierung sicherheitskritischer Software wird neben umfangreichen und normgerechten Tests aller Varianten eines Source-Codes ein Nachweis für die vollständige Abdeckung dieses Source-Codes verlangt. Bei der kumulierten Hyper-Coverage wird mit gängigen Coverage-Messungen ein Zusammenhang zwischen Code-Varianten und gemessener Code-Coverage auf der Basis des originalen Source-Codes berechnet. Die natürlichen Grenzen von Coverage-Messungen unterschiedlicher Code-Varianten werden dadurch überbrückt und erlauben eine kumulierte Zusammenfassung auf Quelldateiebene.

Jeglicher Code in einer Programmquelle wird dabei vollständig erfasst, selbst wenn dieser nicht durch Code-Varianten abgedeckt wird. Durch einen Abgleich der ermittelten Coverage-Werte und der Code-Varianten mit der Quelldatei werden versteckte Funktionen und Programmblöcke in der Quelldatei aufgedeckt, was die Security deutlich erhöht.

Referent: Michael Wittner

Dipl.-Inform. Michael Wittner ist seit vielen Jahren im Bereich Software-Entwicklung und Test tätig. Nach dem Studium der Informatik an der TU Berlin arbeitete er als wissenschaftlicher Mitarbeiter der Daimler AG an der Entwicklung von Testmethoden und Testwerkzeugen. Seit 1997 ist er geschäftsführender Gesellschafter der Razorcat Development GmbH, dem Hersteller des Unit-Testtools TESSY und CTE sowie des Testmanagement-Tools ITE und der Testspezifikationssprache CCDL.

mehr...

In der Ruhe liegt die Kraft – Statische Performance Optimierung

Der Einsatz statischer Analysewerkzeuge zur Aufdeckung kritischer Fehler sowie zur Ermittlung von Sicherheitsschwachstellen (SAST) im Quell- und Binärcode ist „Stand der Technik“ und etablierter Bestandteil des Software-Entwicklungsprozesses. Weniger bekannt ist die Möglichkeit, diese Technologie auch zur Performance-Optimierung einzusetzen.
Der Vortrag zeigt, wie mittels statischer Analyse Bereiche mit Optimierungspotenzial im Quellcode aufgefunden und Performance-Engpässe beseitigt werden können.

Referenten: Royd Lüdtke und Artur Hirsch

Royd Lüdtke leitet bei der Firma Verifysoft Technology GmbH den Bereich Pre-Sales und Support für Statische Codeanalysetools. Er hat umfangreiche Berufserfahrung als Applikationsingenieur und Berater bei einer Vielzahl von Firmen und Institutionen wie New Era Of Networks, Sybase, Rogue Wave Software und dem Fraunhofer Institut. Lüdtke studierte in Dortmund Elektrotechnik und Energietechnik, hält mehrere Patente und ist Autor von Veröffentlichungen im IT-Bereich.

Als fortgeschrittener Informatikstudent unterstützt Artur Hirsch Kunden bei technischen Fragen zu den von der Verifysoft Technology GmbH vertriebenen statischen Analysewerkzeugen.

mehr...

Kurzworkshop: Sichere und zuverlässige Software durch statische Taint-Analyse: Der Schlüssel zu Safety und Security

Taint-Analyse kann in vielen Bereichen genutzt werden. Besonders wichtig sind die nachweisbar korrekten und verlässlichen („sound“) Taint-Analysen. Diese sind vor allem in den Bereichen Safety und Security von großer Bedeutung, da sie beweisen können, dass es keine Fehler, Schwachstellen oder unerwünschte Wechselwirkungen zwischen Softwarekomponenten gibt.

Solche Taint-Analysen auf Quellcode-Ebene werden unter anderem für die Analyse des Signalflusses (Signal Flow Analysis) und die Überprüfung der Wechselwirkungsfreiheit von Softwarekomponenten („freedom of interference“) verwendet. Darüber hinaus können sie helfen, sicherheitsrelevante Schwachstellen wie „(OS) Command Injection“ (CWE77 und CWE78) oder „Improper Input Validation“ (CWE20) direkt im Quellcode zu identifizieren und auszuschließen.

In diesem Workshop zeigen wir, wie diese Analysen flexibel eingerichtet und auf die Testfälle des Juliet-Benchmarks angewendet werden können. Außerdem demonstrieren wir die Konfiguration und Auswertung einer Signalflussanalyse, die beispielsweise den Einfluss von Sensordaten auf die Berechnungen einer Steuerungssoftware (wie z.B. einer Motorsteuerung) darstellt.

Referenten: Dr. Jörg Herter

Dr. Jörg Herter studierte Informatik an der Universität des Saarlandes und promovierte dort zum Doktor der Ingenieurwissenschaften. Er forschte sowohl an der Universität des Saarlandes als auch der Hochschule für Technik und Wirtschaft des Saarlandes (HTWdS). Sein derzeitiges Arbeitsgebiet umfaßt das Thema funktionale Sicherheit sowie die formale Validierung und Verifikation sicherheitskritischer Software.
Jörg Herter arbeitet als leitender technischer Berater bei AbsInt und hält regelmäßig Vorlesungen über statische Programmanalyse, eingebettete Systeme und Übersetzerbau an der Hochschule für Technik und Wirtschaft des Saarlandes sowie an der Universität Luxemburg. Sie treffen ihn auch immer wieder auf den vielen Messen, Konferenzen und Ausstellungen, auf denen AbsInt jedes Jahr vertreten ist.

17:00 bis 17:45, Raum: Kopernikus 3

17:00 bis 17:45, Raum: Kopernikus 2

seit 16:00 bis 17:45, Raum: Kopernikus 1

Kathrin Löffel und David Lang: Effiziente On-Target-Coveragemessung mit Testwell CTC++ – Erfahrungsbericht aus einer embedded Produktentwicklung

Martin Heininger: KI-Copiloten: Showeffekte oder echte Unterstützung im Requirements- und Test Engineering?

Fortsetzung: Dr. Jörg Herter: 100 Minuten Kurzworkshop: Sichere und zuverlässige Software durch statische Taint-Analyse: Der Schlüssel zu Safety und Security

mehr...

Effiziente On-Target-Coveragemessung mit Testwell CTC++ – Erfahrungsbericht aus einer embedded Produktentwicklung

Als unabhängiger und führender Entwicklungsdienstleister für embedded Systeme spezialisiert sich embeX seit mehr als 20 Jahren auf die Funktionale Sicherheit. In unserer täglichen Arbeit stellen wir uns der Herausforderung die Sicherheit und Zuverlässigkeit von ressourcenlimitierten Systemen unter Berücksichtigung von normativen Anforderungen, Kosteneffektivität und individuellen Kundenwünschen umzusetzen.

In einem Fallbeispiel demonstrieren wir, wie CTC++ in einem realen embedded-Projekt eingesetzt wurde, um die Codeabdeckung zu erfassen, zu analysieren und auszuwerten. Dabei gehen wir u.a. auf die eingesetzte Toolchain und die Integration in ein Testsystem ein. Wir legen dabei besondere Aufmerksamkeit auf die Herausforderungen, die in der Praxis auftraten und die Ansätze, mit denen diese gelöst wurden.

Abschließend stellen wir die Ergebnisse vor, diskutieren unsere Erkenntnisse im Hinblick auf zukünftige Projekte und ziehen ein abschließendes Resümee.

Referenten: Kathrin Löffel und David Lang

Kathrin Löffel hat Medieninformatik und Mathematik studiert und beide Studiengänge mit einem Bachelor abgeschlossen. 2012 begann sie ihre Tätigkeit als Software-Testerin bei der Firma embeX GmbH, wo sie sich auf die Verifikation in der funktionalen Sicherheit spezialisierte. Im Jahr 2017 übernahm sie dort die Leitung des Zentralen Dienstes für Verifikation, in dem sie zusammen mit einem 17-köpfigen Team für die Begleitung aller Verifikationstätigkeiten verantwortlich ist. Dies umfasst sowohl die klassische Softwareverifikation mit statischer Codeanalyse, Code Reviews und Unittests, als auch Integrationstests und FITs bis hin zur Produktverifikation. Zu den eingesetzten Tools gehören unter anderem Klocwork, Collaborator, Tessy, CTC, TestStand und LabView. Schulungen und Workshops im Bereich SW-Verifikation gehören dabei ebenfalls zu ihrem Arbeitsalltag.

David Lang nahm 2013 ein duales Bachelor-Studium Elektrotechnik bei der Firma embeX GmbH auf. In einem Masterstudium „Embedded System Engineering“ vertiefte er seine Kenntnisse.

Im Jahr 2019 startete David Lang bei der Firma embeX GmbH als Devops-Ingenieur. Im Rahmen seiner Tätigkeit entwickelte er die Continuos-Integration-Umgebung weiter und betreute den Einsatz der statischen Codeanalyse in Safety-Projekten.

2022 erweiterte er sein Aufgabengebiet um klassische Verifikationsaufgaben wie z.B. Code-Reviews und Unittests. Zusätzlich übernahm er die Tool-Verantwortung für Testwell CTC++ und begleitete mehrere Projekte bei der Software-Coverage-Messung auf Produkttestebene.

mehr...

KI-Copiloten: Showeffekte oder echte Unterstützung im Requirements- und Test Engineering?

Der Vortrag zeigt im Ersten Teil die Ergebnisse eines Versuchs auf, bei dem ChatGPT und dem KI-Copiloten eines Requirementdatenbank Herstellers systematisch verschiedene Requirementstypen gegeben wurde um diese zu bewerten, zu verbessern und Lücken aufzudecken.
Es handelt sich unter anderem um funktionale Requirements mit verschiedenen Komplexitätsstufen, Timing&Performance Requirements, Vertragsrequirements, Prozessrequirements.
Der zweiten Teil des Vortrags stellt die Erzeugung von Testfällen durch den KI-Copiloten und ChatCPT aus oben genannten Requirements in den Mittelpunkt der Betrachtungen.
Die jeweiligen Ergebnisse für die Verbesserung der Requirements und die Erstellung von Testfällen werden dann systematisch bewertet. Folgende Aspekte werden dabei betrachtet und mit den Zuhörern diskutiert:
– die Qualität des notwendigen Promt-Engineering
– die fachliche Qualität der gelieferten Ergebnisse für die Requirements
– die fachliche Qualität der gelieferten Ergebnisse für die Testfälle
– wiederkehrende Muster welche der KI-Copilot erzeugt bei wiederholt gleicher Anfrage
– Erfüllung der Qualitätsanforderungen von verschiedenen Funktionalen Sicherheitsstandards
– Kosten/Nutzen für den praktischen Einsatz
Abschließend diskutiert der Vortrag was aktuell der praktikable Ansatz sein kann, für das Thema Toolqualifikation, wenn diese KI-Copiloten in Projekten der Funktionalen Sicherheit eingesetzt werden sollen.

Referent: Martin Heininger

Dipl.-Ing. (FH) Martin Heininger, ist seit Anfang 2018 Inhaber der HEICON – Global Engineering GmbH, einem Beratungsunternehmen für sicherheitsrelvante, software-intensive embedded Systeme.
Zuvor war er 12 Jahren als freiberuflicher Berater tätig. Er verfügt über 20 Jahre Erfahrung im Bereich Entwicklungsprozessen und Methoden. Besonderer Schwerpunkte bilden das Requirement Engineering und Test Engineering.
Der Autor berät und betreut Projekte in der Luftfahrt, der Automatisierungs- und Bahntechnik sowie in der Automobilindustrie.

mehr...

Kurzworkshop: Sichere und zuverlässige Software durch statische Taint-Analyse: Der Schlüssel zu Safety und Security

Taint-Analyse kann in vielen Bereichen genutzt werden. Besonders wichtig sind die nachweisbar korrekten und verlässlichen („sound“) Taint-Analysen. Diese sind vor allem in den Bereichen Safety und Security von großer Bedeutung, da sie beweisen können, dass es keine Fehler, Schwachstellen oder unerwünschte Wechselwirkungen zwischen Softwarekomponenten gibt.

Solche Taint-Analysen auf Quellcode-Ebene werden unter anderem für die Analyse des Signalflusses (Signal Flow Analysis) und die Überprüfung der Wechselwirkungsfreiheit von Softwarekomponenten („freedom of interference“) verwendet. Darüber hinaus können sie helfen, sicherheitsrelevante Schwachstellen wie „(OS) Command Injection“ (CWE77 und CWE78) oder „Improper Input Validation“ (CWE20) direkt im Quellcode zu identifizieren und auszuschließen.

In diesem Workshop zeigen wir, wie diese Analysen flexibel eingerichtet und auf die Testfälle des Juliet-Benchmarks angewendet werden können. Außerdem demonstrieren wir die Konfiguration und Auswertung einer Signalflussanalyse, die beispielsweise den Einfluss von Sensordaten auf die Berechnungen einer Steuerungssoftware (wie z.B. einer Motorsteuerung) darstellt.

Referenten: Dr. Jörg Herter

Dr. Jörg Herter studierte Informatik an der Universität des Saarlandes und promovierte dort zum Doktor der Ingenieurwissenschaften. Er forschte sowohl an der Universität des Saarlandes als auch der Hochschule für Technik und Wirtschaft des Saarlandes (HTWdS). Sein derzeitiges Arbeitsgebiet umfaßt das Thema funktionale Sicherheit sowie die formale Validierung und Verifikation sicherheitskritischer Software.
Jörg Herter arbeitet als leitender technischer Berater bei AbsInt und hält regelmäßig Vorlesungen über statische Programmanalyse, eingebettete Systeme und Übersetzerbau an der Hochschule für Technik und Wirtschaft des Saarlandes sowie an der Universität Luxemburg. Sie treffen ihn auch immer wieder auf den vielen Messen, Konferenzen und Ausstellungen, auf denen AbsInt jedes Jahr vertreten ist.

17:45 bis 19:00, Raum: Foyer und Einstein 1 und 2

Beginn der Abendveranstaltung in der Ausstellung

19:00 bis 20:00. Raum Kopernokus 2 und 3

Abendkeynote Georg Haupt: Noch viel zu Testen du hast – Ungewisser Blick in die Zukunft des Testens

Ein spannender, humorvoller und trotzdem tiefgründiger Einblick in die mögliche Zukunft des Testens.

mehr...

Noch viel zu Testen du hast – Ungewisser Blick in die Zukunft des Testens“

Ein spannender, humorvoller und trotzdem tiefgründiger Einblick in die mögliche Zukunft des Testens.

n einer Galaxie, nicht allzu fern von hier, steht eine Gruppe tapferer Softwaretester vor der Herausforderung, die Zukunft ihres Fachgebiets zu navigieren.

Die nächste Episode unserer Geschichte projiziert uns in das Jahr 2030 und untersucht dabei, was sich verändern, was neu kommen und was überflüssig werden könnte im Bereich des Softwaretestens.

Mit rasender Geschwindigkeit nähert sich eine neue Ära an, getrieben durch die disruptiven Kräfte von künstlicher Intelligenz und maschinellem Lernen. Diese Mächte ebnet den Weg für fortschrittliche automatisierte Tests, die die Branche revolutionieren und das Universum des Softwaretestens neu definieren.

Unsere Testerkommandos müssen sich mit diesem Wandel befassen und die Testautomatisierung weiter vorantreiben. In dieser sich rasch verändernden Galaxie wird es immer wichtiger, wie Tester die Schnittstelle zwischen Architektur und Test gestalten.

Jedoch ist das Beherrschen der Macht der Technologie nur eine Seite der Medaille. Unsere heldenhaften Tester müssen auch ihre Soft Skills weiterentwickeln. Durch effektive Kommunikation, kreatives Problemlösen und die Bereitschaft zur Anpassung können unsere Softwaretester im Angesicht schwieriger Herausforderungen bestehen.

Die Tester setzen ihre Reise fort, um technische Fähigkeiten zu meistern, die in der neuen Ära des Testens von entscheidender Bedeutung sind. Sie bahnen sich ihren Weg durch die Galaxie und gewinnen wichtige technische Fertigkeiten um ihre Mission zu erfüllen.

Am Rande der Galaxie blickt unsere Mannschaft auf die aufkommende Debatte zwischen Spezialisierung und Verallgemeinerung. Sollen sie sich auf bestimmte Bereiche spezialisieren oder ist es vorteilhaft, sich auf breitere Fähigkeiten zu konzentrieren?

Kommen Sie mit auf diese galaktische Reise, während wir durch die Untiefen des Unbekannten navigieren und wertvolle Erkenntnisse über die Zukunft des Softwaretestens gewinnen.

Schon Meister Joda sagte: „Noch viel zu lernen du hast, mein junger Padawan“.

Möge die Qualität mit uns sein.

 

Referent: Georg Haupt

Als Quality Evangelist lautet mein Motto: „Aus der Praxis für die Praxis!“ Denn als Test- und Qualitäts-Management-Experte blicke ich auf 20 Jahre praktische Erfahrung für sowohl agile als auch klassische Soft- und Hardwaretests zurück. Weitere Schwerpunkte sind für mich: Test-Automatisierung, Test-Analyse sowie Security-Tests. Hierbei liegt mir besonders teamübergreifende und agile Qualitätssicherung am Herzen.

Ich lege hohen Wert auf eine ausgewogene Mischung aus manuellen, explorativen und automatisierten Tests. Das Entwickeln und Etablieren von Testmethoden und Prozessen ist für mich langjährige Praxis. Darüber hinaus biete ich Ihnen praktische Erfahrung in der Einführung von teamübergreifenden Test- und Testmanagementwerkzeugen und Prozessen.

Privat bin ich ein experimentell verspielter Smart Home-Technikfreak. Und dazu seit über 25 Jahren als DJ, Webradiomoderator und Cineast unterwegs. Aber nichts ist schöner als ein anständiger Wein mit der Familie, entweder bei einem guten Film im Heimkino oder beim Brettspiel.

21:00 bis 23:00, Raum: Foyer und Einstein 1 und 2

Fortsetzung der Abendveranstaltung in der Ausstellung

Änderungen vorbehalten