Informatiker/in, Mathematiker/in oder Physiker/in o. ä. (w/m/d)


Wissenschaftliche Tätigkeit / Projektarbeit

Steigen Sie ein in die faszinierende Welt des Deutschen Zentrums für Luft- und Raumfahrt (DLR), um mit Forschung und Innovation die Zukunft mitzugestalten! Mit dem Know-how und der Neugier unserer 11.000 Mitarbeitenden aus 100 Nationen sowie unserer einzigartigen Infrastruktur, bieten wir ein spannendes und inspirierendes Arbeitsumfeld. Gemeinsam entwickeln wir nachhaltige Technologien und tragen so zur Lösung globaler Herausforderungen bei. Möchten Sie diese große Zukunftsaufgabe mit uns zusammen angehen? Dann ist Ihr Platz bei uns!


Für unser Institut für KI-Sicherheit in Ulm suchen wir eine/n


Informatiker/in, Mathematiker/in oder Physiker/in o. ä. (w/m/d)

Fachliche Leitung für den Bereich „AI Security and Trust“



Das erwartet Sie:

Das Institut für KI-Sicherheit erbringt Forschungs- und Entwicklungsleistung im Bereich KI-bezogener Methoden, Prozesse, Algorithmen und Ausführungsumgebungen. Schwerpunkt ist die Gewährleistung von Betriebs- und Angriffssicherheit KI-basierter Lösungen in ambitionierten Anwendungsklassen. „Safety and Security by Design” ist dabei ein zentraler Aspekt, über welchen auch die Anforderungen sicherheitskritischer Anwendungen erfüllt werden können, die zukünftig auf KI fußen bzw. KI-basierte Komponenten als Lösungsbausteine aufgreifen.

 

Die Arbeitsschwerpunkte des Instituts liegen in den folgenden Bereichen:

 

  • Entwicklungsprozesse und -Methoden für sicherheitskritische KI-Anwendungen
  • robuste und zuverlässig absicherbare KI-Methoden und -Algorithmen
  • Betriebs- und Angriffssicherheit für KI-basierte Anwendungen
  • Absicherung und Nutzung sensibler Datenbestände
  • Ausführungsumgebungen für KI-Anwendungen
  • innovative Rechenmethoden


Die Abteilung KI-SCD (Sicherheitskritische Dateninfrastrukturen) des DLR Institut für KI-Sicherheit arbeitet u.a. an der Erforschung und Weiterentwicklung von (de-)zentralen Datenräumen für hochkritische Anwendungsbereiche. Dabei geht es um die sichere Einbettung von Dateninstanzen in KI-Anwendungslandschaften, d.h. es werden sowohl Angriffsmöglichkeiten und deren Verhinderung/Abschwächung betrachtet, als auch die Sicherheit während des Betriebs der Anwendung, um ungewünschte Systemzustände möglichst zu vermeiden.

 

Kernaspekte sind hierbei die Themen Datenprovenienz, Datenqualität, Semantische Integration und die fachlich-wissenschaftliche Erweiterung von dezentralen Daten- und Diensteökosystemen.

 

Im Rahmen der Aktivitäten rund um das Thema AI Security and Trust sind die fachliche Leitung des Teams KI-SCD-SEC und die wissenschaftliche Leitung (und Weiterentwicklung) von Forschungsaufgaben auf dem Gebiet der Sicherheit für KI Systeme zu übernehmen. 

Dies umfasst insbesondere die Themengebiete AI Security und AI Trust. 

 

Die ausgeschriebene Stelle beinhaltet die folgenden Leitungsaufgaben und wissenschaftlichen Themenbereiche:

 

  • fachliche Leitung und Koordination eines Teams im Kontext „AI and IT Security & Trust“
  • Umsetzung der strategischen Ziele im Kontext „AI and IT Security & Trust“(intern als auch extern)
  • Identifizierung, Akquise und Koordination von wissenschaftlichen Projekten
  • Konsolidierung und technische Integration unterschiedlicher funktionaler Ansätze (teilweise aktuell in Entwicklung) in das Gesamtkonzept „AI and IT Security & Trust“
  • Konsolidierung der Themen des Teams im Hinblick auf wissenschaftliche Veröffentlichungen, inkl. der Koordination der Erstellung dieser Publikationen und Fachbeiträge
  • Darstellung der „AI and IT Security & Trust“ relevanten Themen in DLR internen und externen Arbeitsgruppen, Konferenzen, etc.
  • Erstellung von wissenschaftlichen Studien zu Methoden und Prozessen zur Operationalisierung von wegweisenden Lösungen im Kontext „Security & Trust“ mit Bezug auf KI-Systeme und traditionelle IT Systeme
  • Erarbeitung und Umsetzung eines übergreifenden Konzepts für Ergebnisse im Rahmen der Arbeiten bzgl. „AI and IT Security & Trust“ die eine Konsoli-dierung der verschiedenen in der Abteilung und am Institut entwickelten Komponenten und funktionaler Module darstellt
  • Erarbeitung von Ansätzen zur Integration von „AI and IT Security & Trust“ in DevOps-Vorgehensmodellen zur Steigerung der Sicherheit und Robustheit
  • Erarbeitung von Konzepten und Steuerung der Umsetzung von Integrationsansätzen, um Themen des Teams „AI and IT Security & Trust“ in verteilten Systemen verfügbar zu machen


Das erwarten wir von Ihnen:

  • abgeschlossenes wissenschaftliches Hochschulstudium (Master / Diplom Uni) der Naturwissenschaften (z.B. Informatik, Mathematik oder Physik) oder andere für die Tätigkeit relevanten Studiengänge
  • praktische Forschungserfahrung (mindestens 3 Jahre) im Aufgabenbereich (Cyber-) Security, z.B. erworben durch eine Promotion oder durch anderweitige nachgewiesene Forschungstätigkeiten
  • sehr gute Fachkenntnisse im Bereich Cybersicherheit
  • sehr gute Fachkenntnisse im Bereich IT- Sicherheit
  • Erfahrungen im Bereich der Künstlichen Intelligenz
  • umfangreiche Erfahrungen im Bereich komplexer Systemumgebungen
  • umfassende Fachkenntnisse im Bereich des wissenschaftlichen Publizierens
  • vertiefte Anwenderkenntnisse im Umfeld des Projektmanagements und dessen IT Tools.
  • fundierte und nachgewiesene Erfahrung in der fachlichen Führung von Teams, z.B. erworben durch die fachliche Leitung von Projekten
  • Englischkenntnisse in Wort und Schrift
  • Deutschkenntnisse in Wort und Schrift


Unser Angebot:

Das DLR steht für Vielfalt, Wertschätzung und Gleichstellung aller Menschen. Wir fördern eigenverantwortliches Arbeiten und die individuelle Weiterentwicklung unserer Mitarbeitenden im persönlichen und beruflichen Umfeld. Dafür stehen Ihnen unsere zahlreichen Fort- und Weiterbildungsmöglichkeiten zur Verfügung. Chancengerechtigkeit ist uns ein besonderes Anliegen, wir möchten daher insbesondere den Anteil von Frauen in der Wissenschaft und Führung erhöhen. Bewerbungen schwerbehinderter Menschen bevorzugen wir bei fachlicher Eignung.


Weitere Angaben:

Eintrittsdatum: 01.10.2024

Dauer: 2 Jahre mit Möglichkeit zur Verlängerung und ggf. Entfristung 

Beschäftigungsgrad: Vollzeit (Teilzeit möglich)

Vergütung: bis Entgeltgruppe 14 TVöD

Kennziffer: 95910


Kontakt: 

Dr. Michael Karl Institut für KI-Sicherheit 

Tel.: 02241 20148 909








DLR - Helmholtz / Deutsches Zentrum für Luft- und Raumfahrt



Visit employer page


Deadline: 2024-09-30
Location: Germany, Ulm, Baden Württemberg
Categories: Computer Sciences, informatics, Mathematician, Mathematics, Physicist, Physics,

Apply


Ads
Leibniz-Institut für Analytische Wissenschaften – ISAS – e.V. (ISAS)


Max Planck Institute for Social Law and Social Policy


OTH - Ostbayerische Technische Hochschule Amberg-Weiden


AIT Austrian Institute of Technology


Helmut-Schmidt-Universität - Universität der Bundeswehr Hamburg


SAL Silicon Austria Labs GmbH


Universität der Bundeswehr München


Helmholtz Centre for Infection Research (HZI)


More jobs from this employer