Software und Scientific Computing

Die Gruppe Software und Scientific Computing entwickelt Algorithmen und Software-Werkzeuge, mit denen sich Wissen in strukturierten und unstrukturierten frei verfügbaren Quellen schnell finden und explorieren lässt.

Beim Stöbern in wissenschaftlicher Literatur, bei der Recherche in Datenbanken oder beim Browsen von Online-Medien fragt man sich häufig »Kann das sein?« oder »Was ist eigentlich der aktuelle Stand des Wissens?«. Nutzt man Portale, um das Web zu durchsuchen, muss man sich durch lange Ergebnislisten wühlen. Wir forschen an verteilten Informationssystemen, die solche Fragen ad hoc beantworten sollen. Das geht weit über stichwortbasierte Suchen hinaus.

In unserem Data Center sind sowohl strukturierte Datenbanken (etwa zu Proteinen, Chemikalien, Wirkstoffen, klinischen Studien) als auch riesige unstrukturierte Dokumentensammlungen (beispielsweise Forschungsartikel, Patente, Beipackzettel) integriert. Das Ziel ist, unterschiedliche Quellen zu hochkomplexen Wissensgraphen zu vernetzen, indem Konzepte und deren Beziehungen automatisch erkannt und normalisiert werden.

Wir nutzen dazu moderne Verfahren der Informationsextraktion, um mit Hilfe von Terminologien und Ontologien automatisch Nennungen von Konzepten (inklusive Synonymen und Abkürzungen) zu finden und diese in Beziehung zu setzen (Relation Mining). Das so gesammelte Wissen wird in föderierten Graphdatenbanken oder Triple Stores abgelegt und lässt sich so von Experten aus den Anwendungsfeldern (zum Beispiel Biomedizin, Pharmazie, Chemie, Biotechnologie) abfragen. Wir setzen dabei auf moderne Big-Data-Architekturen, Semantik-Web-Technologie und aktuelle Verfahren der künstlichen Intelligenz (wie Large Language Models LLM). Wir entwickeln und setzen hauptsächlich Open-Source-Software-Lösungen (etwa Kubernetes, Apache Spark, Apache Spring, REACT) ein und nutzen standardisierte Schnittstellen (etwa OpenAPI, OAuth), die wir anpassen und erweitern (vgl. https://github.com/SCAI-BIO).
 

Unsere Angebote sind breit gefächert. Wir

  • beraten und schulen zum Thema Informationsextraktion, Modellierung von Wissensgraphen, Aufsetzen und Betrieb skalierender Mikroservice-Architekturen im Big-Data-Umfeld, Digitalisierung und Datenaufbereitung,
  • entwickeln grafische Analysewerkzeuge und Programmierschnittstellen (API) und passen sie auf Kundenwunsch an,
  • beteiligen uns an nationalen und internationalen Forschungsprojekten,
  • kooperieren mit der Industrie und mit Auftragsarbeiten und
  • vergeben und und betreuen spannende Forschungsarbeiten (Praxisprojekte, Bachelor-/Master-Arbeiten)
     

Wir verfügen über:

  • eine hervorragende Infrastruktur (Rechenzentrum, Datazentrum, schnelle Anbindung)
  • Expertenwissen in Chemie, Molekularbiologie, Biomedizin, Pharmakologie, Informatik und Mathematik
  • ein breites informatisches Kompetenzspektrum

Ausgewählte Publikationen

  • Babaiha, Negin Sadat, et al. "A Natural Language Processing System for the Efficient Updating of Highly Curated Pathophysiology Mechanism Knowledge Graphs." Artificial Intelligence in the Life Sciences (2023): 100078.
  • Sargsyan, Astghik, et al. "The Epilepsy Ontology: a community-based ontology tailored for semantic interoperability and text mining." Bioinformatics Advances 3.1 (2023): vbad033.
  • Lage-Rupprecht, Vanessa, et al. "A hybrid approach unveils drug repurposing candidates targeting an Alzheimer pathophysiology mechanism." Patterns 3.3 (2022).
  • Wegner, Philipp, et al. "Common data model for COVID-19 datasets." Bioinformatics 38.24 (2022): 5466-5468.
  • Schultz, Bruce, et al. “Integration of adverse outcome pathways with knowledge graphs”, International Congress of Toxicology (ICT), Maastrich, poster session (2022)

Software und Scientific Computing Knowledge Graph

Software und Services im Geschäftsfeld Bioinformatik