Zum Inhalt
scrum

Aktuelle Forschungsprojekte der HfTL

Auf dieser Seite erhältst Du alle Neuigkeiten über die Ergebnisse unserer praxisnahen Forschung. Patente, internationale Kooperationen oder Best Paper Awards – hier bieten wir Dir einen Einblick in unser Forschungsspektrum.

Prüfverfahren zum Betrieb von Mobilfunkstandorten entwickelten

Projektteam D. Schüle, S. Treff und J.Klinger

Deutsche Telekom Technik GmbH und Hochschule für Telekommunikation Leipzig entwickeln erfolgreich Prüfverfahren zum Störungsfreien Betrieb zukünftiger Mobilfunkstandorte.

Experten der Mobilfunksparte innerhalb der Deutsche Telekom Technik GmbH  forschen fachbereichsübergreifend in enger Zusammenarbeit mit der unternehmenseigenen Hochschule für Telekommunikation in Leipzig (HfTL) an einer Lösung, mithilfe derer künftig Störungen durch Passive Intermodulation (PIM) auf dem Antennenpfad vorhergesagt, bzw. frühzeitig erkannt werden können. Die Servicequalität und das Kundenerlebnis bei mobiler Datennutzung lassen sich dadurch weiter verbessern und stehen im Fokus der Arbeit.

Die gemeinsame Forschungsgruppe konzentrierte sich in ihren Überlegungen auf folgende Problemstellung: Welche messbaren Auswirkungen hat Passive Intermodulation (PIM) auf die Performance moderner Mobilfunkdienste, insbesondere dem Multicarrier-Standard Long Term Evolution (LTE)?  Es gilt, die Ursachen für diese, die Performance beeinträchtigenden Störungen auf wissenschaftlicher Basis zu ergründen und Lösungen zu entwickeln. „Wir wollen unseren Kunden ein Netz mit bestmöglichen Hochfrequenztechnik-Voraussetzungen für hoch performante Mobilfunkdienste bieten. Dafür suchen wir u.a. auch effiziente Werkzeuge, um aus der Ferne eine Beurteilung der Aufbauqualität einzelner Standorte vornehmen zu können.“ sagt Stefan Treff, Technikexperte der Telekom.

Zusammen mit Jens Klinger, wissenschaftlicher Mitarbeiter an der HfTL arbeitet die Forschungsgruppe aktuell an letzten Tests zur Bestimmung der Einsatztauglichkeit sogenannter Referenz-Störquellen. Aktuell steht dieses Verfahren zu einer Patentanmeldung an. Diese Stör-Referenzquellen werden bei Substitutionsmessverfahren an neuen und bestehenden Antennensystemen eingesetzt um das Störverhalten zu simulieren. Im nächsten Schritt werden vom Netz gelieferte Indikatoren, sogenannte Counter und Key Performance Indikatoren (KPI)  auf ihre Vorhersagesicherheit untersucht und angepasst.

Die durch diese Bereichsübergreifende Zusammenarbeit entstehenden Synergien und Ergebnisse können optimal am Institut für Hochfrequenztechnik an der HfTL gebündelt werden. In den dortigen Laborräumen und der vorhandenen Hochschulinfrastruktur bieten sich hervorragende Voraussetzungen zum kreativen Forschen.

Die erfolgreiche Zusammenarbeit mit den Experten aus der Telekom Technik liegt auch in der Tatsache begründet, dass alle Teilnehmer der Projektgruppe ihr Studium mit einem Master of Engineering in Informations- und Kommunikationstechnik erfolgreich abgeschlossen haben, bzw. aktuell ein berufsbegleitendes Studium an der HfTL absolvieren.

„Dieses Projekt kann auf dem Weg zur nächsten Mobilfunkgeneration „5G“ hilfreich sein. Die vorliegenden Projektergebnisse zeigen, dass wir als HfTL unsere Studierenden bestens darauf vorbereiten, ihre Aufgaben in einem dynamischen Marktumfeld bei einem der modernsten Kommunikationsdienstleister erfolgreich zu meistern“ bekräftigt Jens Klinger die Zusammenarbeit mit seinen ehemaligen Studierenden.

HfTL erforscht mit Partnern effiziente Sprach- und Musikkodierung

Ausgeklügelte Technologien der Sprach- und Musikkodierung sowie -kompression durchdringen verschiedene Bereiche der Mensch-Maschine-Interaktion, der menschlichen Kommunikation sowie das Design von Nutzerschnittstellen, z. B. im Smartphone, Tablet oder Webkonferenzsystem.

In verschiedenen Teilprojekten untersuchen Prof. Dr.-Ing. Oliver Jokisch und Dipl.-Ing. Michael Maruschke gemeinsam mit Mitarbeitern und Studierenden moderne Audio-Kodierungsverfahren (Codecs) bezüglich anwendungsnaher Herausforderungen – z. B. beim Einsatz in der Webbrowser-gestützten Echtzeitkommunikation (WebRTC) oder in der Mobilkommunikation über ein VoLTE-Netzwerk. Während bislang unterschiedliche Codecs für die Sprach- und Musik-Kommunikation benutzt wurden, sind aktuelle Kodierungsverfahren  wie Opus oder Enhanced Voice Services (EVS) universell für High-Definiton Voice (HD-Voice) und Musik-Kommunikation einsetzbar. Kooperationspartner sind u. a. die T-Labs der Deutschen Telekom, die SwissQual (ein Unternehmen der Rhode & Schwarz-Gruppe), das Polizeiverwaltungsamt (PVA) Sachsen sowie die Otto-von-Guericke-Universität Magdeburg.
Ein wesentlicher Teil der Experimente konzentriert sich auf Aspekte von Quality of Service (QoS) und Quality of Experience (QoE), um Verbesserungsmöglichkeiten der Codecs bezüglich eines möglichst geringen Kodierungsfehlers sowie einer hohen Verständlichkeit und Natürlichkeit zu eruieren und Empfehlungen bei der anwendungsspezifischen Auswahl und Parametrisierung von Codecs zu generieren. Dabei werden umfangreiche Hörtests mit vielen Versuchspersonen und unterschiedlichen Sprach- und Musikproben unter wechselnden Einsatzbedingungen durchgeführt. Ergänzend erfolgen instrumentelle Messungen zur Vorhersage der erwarteten Hörqualität mit dem Verfahren Perceptual Objective Listening Quality Assessment (POLQA), bei denen auch die Grenzen des objektivierten Messansatzes thematisiert werden. 
Abhängig vom konkreten Stimulus, beispielsweise unterschiedlich betonter oder emotioneller Sprache, variiert das Qualitätsurteil. Ähnliche Effekte lassen sich bei verschiedenen Musikstilen oder Mischformen aus Gesang und Instrumentalmusik beobachten. Daraus lassen sich plattform- und szenarienabhängige Parametrisierungsempfehlungen in der Sprach- und Musikkodierung ableiten.
Weitere Experimente betreffen Prozessparameter wie den Echtzeitfaktor oder die Latenzzeit bei der Codierung und Transcodierung, die u. a. eine wichtige Rolle in der geplanten Hochgeschwindigkeits-Kommunikation der fünften Mobilfunkgeneration (5G) spielen.
Darüber hinaus wird eine Hardware mit einer universellen Audio- und Datenschnittstelle zur Sprachqualitätsmessung über diverse Endgeräte für Behördennetze entwickelt und optimiert.

 

Aktuelle Publikationen:

Jokisch, O.; Maruschke, M.: Audio and speech coding/transcoding in web real-time communication, International Symposium on Human Life Design (HLD 2016), Kanazawa/Japan. http://www.jaist.ac.jp/hld/IntlSymp2016/paper/HLD2016-COM03.pdf

Jokisch, O.; Maruschke, M.; Meszaros, M.; Iaroshenko, V. : Audio and speech quality survey of the opus codec in web real-time communication, ESSV-Konferenz 2016, Leipzig, S. 254-262. http://www1.hft-leipzig.de/ice/essv2016/files/31%20-%20JokischMaruschke-S.254-262.pdf

Meszaros, M.; Maruschke, M.: Verhaltensanalyse von Einplatinencomputern beim Transcoding von Echtzeit-Audiodaten, ESSV-Konferenz 2016, Leipzig, S. 237-245. http://www1.hft-leipzig.de/ice/essv2016/files/20%20-%20MeszarosMaruschke-S.237-245.pdf

Lösch, E.; Zimmermann, A.; Schenk, A.; Jokisch, O.: Entwicklung einer universellen Audio- und Datenschnittstelle zur Sprachqualitätsmessung in digitalen Funknetzen, ESSV-Konferenz 2016, Leipzig, S. 246-253. http://www1.hft-leipzig.de/ice/essv2016/files/35%20-%20LoeschZimmermannSchenkJokisch-S.246-253.pdf

Prof. Dr.-Ing. Oliver Jokisch leitet an der HfTL den Fachbereich Nachrichtentechnik und lehrt seit 2012 im Fachgebiet Signal- und Systemtheorie. Sein Forschungsportfolio umfasst dabei Themen der Audio – und Sprachsignalverarbeitung.

Dipl.-Ing. Michael Maruschke ist seit  2004 als wissenschaftlicher Mitarbeiter in der HfTL im Fachbereich Nachrichtentechnik tätig. Neben der Lehre ist die Forschungs-Kooperation mit den T-Labs und ausländischen Partner-Universitäten auf dem Gebiet der zukünftigen Telekommunikationsnetze sein Arbeitsschwerpunkt.

 

 

 

Im Rahmen einer internationalen Fachkooperation hat ein Team von Forscherkollegen aus Portugal und Deutschland auf der im ICT-Sektor international anerkannten 18. ICIN-Konferenz am 19.02.2015 in Paris einen Best Paper Award für den eingereichten Beitrag zum Thema „Signalling-On-the-fly:SigOfly; WebRTC Interoperability tested in contradictive Deployment Scenarios“ erhalten.

Das Team, bestehend aus

  • Kay Hänsge und Steffen Drüsedow von den Telekom Innovation Laboratories (T-Labs),
  • Paulo Chainho von der Telecom Portugal, Inovação e Sistemas und
  • Michael Maruschke, wiss. Mitarbeiter im Bereich Telekommunikationsinformatik der HfTL

 

beschäftigt sich in seinem wissenschaftlichen Artikel mit der Fragestellung, wie eine Interoperabilität von unterschiedlichen WebRTC-Kommunikations-Plattformen erreicht werden kann, ohne dass standardisierte Signalisierungsprotokolle dazu notwendig sind. Die jeweils verschiedenen WebRTC-Lösungen lernen dabei quasi wie im Flug („Signalling-On-the-fly“) ihre notwendige Signalisierung.

Dieses Konzept gewährleistet die Interoperabilität zwischen beliebigen WebRTC-Domänen. Es ist nicht notwendig, ein standardisiertes Signalisierungsprotokoll wie SIP zu verwenden. Dieses Resultat ebnet den Weg für die Entwicklung einer neuen, agileren und wettbewerbsfähigeren Service-Architektur und stellt gleichzeitig eine Alternative zu der aktuellen IMS (IP Multimedia Subsystem) Architektur dar.

Unter dem EU geförderteten OpenLab Project WONDER (Webrtc interOperability tested in coNtradictive DEployment scenaRios) beschäftigten sich die Forscher mit verschiedenen Szenarien bei der Übertragung von Audio – und Videodiensten. Zusätzlich wurde dieses Verfahren auf die Datenkommunikation angewendet, was eine Syntax-Aushandlung für Datenkommunikation gewährleistet.

Dabei wurden auch Studierende der HfTL mit einbezogen. Weitere Folgeaktivitäten im Rahmen der langfristigen Kooperation zwischen der HfTL und den T-Labs unter Einbeziehung der Studenten finden bereits statt. Mehr Informationen zur 18. ICIN-Konferenz icin.co.uk

Darstellung von Szenarien bei der Übertragung von Audio- und Videodiensten

Studenten erhalten internationalen Forschungspreis

Dipl.-Ing. Michael Maruschke

Praxisnahe Forschung unter Einbeziehung von Studierenden hat an der Hochschule für Telekommunikation Leipzig (HfTL) eine lange Tradition. Studierende der an der HfTL angebotenen Masterstudiengänge beteiligen sich im Rahmen der Profilierung/ihrer Masterthesis an Forschungsvorhaben aus dem Telekommunikationsbereich.

Dipl.-Ing. Michael Maruschke, wissenschaftlicher Mitarbeiter im Bereich Kommunikationsinformatik, hat gemeinsam mit den Masterstudenten Tilmann Bach und Jens Zimmermann sowie Kollegen der Telekom Innovation Laboratories (T-Labs) für die Forschungsarbeit zum Thema "Combination of IMS-based IPTV Services with WebRTC" den Best Paper Award der internationalen Forschungsgemeinschaft IARIA erhalten. Das Forschungsthema beschäftigt sich mit der Einbindung von echtzeitfähigen Web-Browsern in eine IP Multimedia Subsystem (IMS)-fähige Netzinfrastruktur, welche für IPTV-Dienste wie Video-on-demand aufgebaut wurde. Der Video-Dienst wird für den Endnutzer im Web-Browser dargestellt. Diese Idee wurde prototypisch an der HfTL entwickelt, getestet und zum Patent angemeldet. Der Fachbeitrag wurde im Rahmen der "9. Internationalen Konferenz für Computing in der globalen Informationstechnologie" (ICCGI 2014) vorgetragen.

Des Weiteren wurde der Forschungsbeitrag bei der europäischen WebRTC-Konferenz, welche im Dezember 2014 stattfand, als "Innovative use-case" vorgestellt.

Mehr Informationen

iaria.org/awards.html

thinkmind.org/index.php?view=article&articleid=iccgi_2014_7_10_10092
uppersideconferences.com/webrtc/webrtc2014program_ataglance.html

Cloud ist mehr als Virtualisierung - Chancen und Risiken von Cloud Computing für KMUen

KMU stehen vor der Herausforderung, IT effektiv und sicher zu betreiben, ohne über die notwendigen Experten und Ressourcen verfügen zu können. Cloud Computing bietet sich als eine preisgünstige Alternative zur eigenen IT Infrastruktur an. Vor- und Nachteile des Cloud Computing sind abzuwägen. Aktuelle Studien belegen, dass mit Cloud Computing die Datenschutzrichtlinien und hohe Sicherheitsstandards eingehalten werden können. Wichtige Punkte der SLA (Service Level Agreement) als auch deren Kontrolle werden diskutiert. Im Beitrag wird auf technische und organisatorische Anforderungen eingegangen, welche die ICT-Branche in den nächsten Jahren meistern muss, um den Anforderungen aus der Wirtschaft gerecht zu werden.

Durch die Wirtschaftskrise haben sich die Bedingungen am Weltmarkt weiter verschärft und eine flexible Reaktion auf veränderte Situationen ist entscheidend für den Fortbestand der Firmen. Deshalb müssen die Geschäftsprozesse optimal von der IT unterstützt werden. IT Systeme unterstützen die Geschäftsprozesse sowohl im Hauptgeschäftsfeld durch Auftragsmanagement, Lagerhaltung und Produktionssteuerung als auch bei begleitenden Prozessen wie Lohnbuchhaltung und Personalplanung. Dabei ergeben sich unterschiedliche Varianten zur Nutzung von Cloud Computing, wie Private Cloud, Community Cloud, Provider Cloud und Public Cloud. Jede Cloud Form hat ihre Besonderheiten und kann bei entsprechendem Einsatz ihre Vorteile voll ausspielen und zu einem win2win System für Betreiber und Nutzer werden.

Dabei soll nicht vergessen werden, das Cloud Computing ein modernes Business Modell zur Vermarktung von IT Diensten darstellt. Die IT Dienste werden in verschiedenen Abstraktionsstufen IaaS, PaaS, DaaS, SECaaS, SaaS und XaaS angeboten. Die technologische Grundlage Virtualisierung ermöglicht das pay-as-you-go-Preismodell, die onDemand-Nutzung, erhöht die Effektivität und Flexibilität.

Der Nutzer von Cloud Computing erwartet ein „Sorglos Paket“, dass u.a. folgende Anforderungen erfüllt: kein Administrationsaufwand, kaum Fachpersonal notwendig, Sicherheit und Verfügbarkeit entsprechend den gesetzlichen und betrieblichen Erfordernissen, überschaubare Kosten, hohe Software Qualität, schnelle Beseitigung von Fehlern, flexible Reaktion auf geänderte Anforderungen, umfassende Betreuung und Beratung. Bei all den Vorteilen er bezahlt nur die Dienste, die er genutzt hat.

Auf der anderen Seite die erschwert Virtualisierung die Kostenkalkulation und Abrechnung der erbrachten Leistungen für den Betreiber und erfordert sorgfältige Sicherheitsmaßnahmen, um dem Kunden dieses „Sorglospaket“ anbieten zu können. Für den Betreiber ergibt sich außerdem: hohe Auslastung der HW, Energieeinsparung, hohe Verfügbarkeit, Automatisierung von Routineaufgaben, flexibles Management der Ressourcen, vereinfachte Wartung und Migration, einfache Einführung von neuen Software Systemen und deren Testung, automatische Erfassung der Dienstnutzung und Abrechnung, Fehlermanagement sowie höhere Sicherheit durch Sandbox Technologie.

Der reibungslose Betrieb von Cloud Computing mit einer lückenlosen Dokumentation der Ressourcennutzung und der Gewährleistung einer hohen Sicherheit sowohl für die Cloud als auch der Daten der einzelnen Nutzer in der Cloud bilden eine Herausforderung. Dazu zählen auch ein umfassendes Backup, ein effektives Management und die Weiterentwicklung von Hard- und Software. Zusätzlich dazu müssen für den Datentransfer ausreichende Bandbreiten und QoS-Parameter, wie Jitter und Bitfehlerraten, vom Netzanbieter bereitgestellt werden.

Die Anforderungen an die IT Experten sind so vielfältig, dass das IT- Team eines KMU von 2 bis 3 Mitarbeitern nicht alle Gebiete (Sicherheit, Netzwerk, Software, Datenbanken, Betriebssysteme, Backupsysteme etc.) abdecken kann und dadurch Lücken in der Verfügbarkeit, Effektivität oder der Sicherheit entstehen können. Zusätzlich stellt der Gesetzgeber hohe Anforderungen (Datenschutz, Steuerrecht, etc.) an die IT Systeme und die Verantwortlichen. Aber selbst ein IT- Team von 2-3 Mitarbeitern kann die finanziellen Möglichkeiten eines KMU übersteigen.

Dem gegenüber stellen die Geschäftsmodelle des Cloud Computing für die KMU eine saubere Lösung für die IT Aufgaben dar. Entscheidend hierbei ist die Wahl des Cloud Anbieters: Ein auf der Grundlage der neuen BSI-Zertifizierungsverordnung zertifiziertes Rechenzentrum bietet seine Leistungen in Form einer Provider Cloud an. Meist bietet der Provider schon seit Jahren verschiedene IT Dienste an und erweitert sein Spektrum um die Business Modelle des Cloud Computing. Der Provider verfügt über ein geschultes Personal und eine umfangreiche IT Infrastruktur. Der Betreiber schützt seinen IT Betrieb und damit die ihm anvertrauten Daten mit entsprechenden Maßnahmen und führt regelmäßige Sicherheitsaudits durch. Durch die BSI Zertifizierung kann er seine Akzeptanz auf dem IT Markt festigen.

Vorteile für den Nutzer

  • kein Administrationsaufwand
  • kaum Fachpersonal notwendig
  • Sicherheit per SLA
  • Verfügbarkeit per SLA
  • Kosten abhängig vom Bedarf
  • Datenschutz per SLA


Nachteile für den Nutzer

  • Abhängigkeit vom Betreiber / Provider
  • Keine Standards (erschwert Providerwechsel)
  • Datentransfer über ein unsicheres Netz
  • Kontrolle der Leistung / Abrechnung notwendig
  • Keine Vertragsstandards


Vertraglich wird mit dem Cloud Anbieter vereinbart, welche Leistungen erbracht und welche Sicherheitsbestimmungen eingehalten werden. Der Nutzer bezahlt nur die Dienste, die er genutzt hat. In den SLA werden die Leistungen und die zugesicherte Verfügbarkeit der Dienste definiert. Dabei sollten beide Parteien auch festhalten, wie bei einer Verletzung durch den Provider (Dienst ist nicht erreichbar) oder den Nutzer (mehr Ressourcen werden genutzt als vereinbart) zu verfahren ist. Da diese Geschäftsmodelle noch sehr neu sind, werden die SLA auch jeweils neu verhandelt. Lücken im Vertragswerk werden erst bei der Nutzung und im Streitfall entdeckt und können die win2win Situation beeinträchtigen. Die BITKOM hat deshalb einen Leitfaden für Cloud Computing erarbeitet und eine Checkliste für die Ausfertigung von SLA erarbeitet.

Diese Checkliste enthält folgende Aspekte:

  1. Regelungen für den Datenschutz, Informationssicherheit, Compliance
  2. Konkreter Bedarf des Kunden
  3. Art des gesetzl. Vertragstypen (in- o. ausländischer Rechtsordnung)
  4. Leistungsbeschreibung als zentraler Vertragsinhalt
  5. Service Level Agreements
  6. Nutzungsrechte für die Software in der Cloud
  7. Regelungen für Subunternehmer
  8. Change-Request Verfahren und Regelungen zur Governance
  9. Vergütung für die Cloud-Leistung
  10. Kontrollmöglichkeiten für den Kunden
  11. Regelungen zur Beendigung der Leistung


Bei dem Geschäftsmodell SaaS ist der Nutzer weniger vom Cloud Anbieter abhängig als beim IaaS, da Standardsoftware von mehreren Cloudanbietern angeboten wird. Die Anforderungen an die Carrier Netze werden durch die zunehmende Nutzung von VoIP und Cloud Computing wachsen.

Kontakt:

Prof. Dr.-Ing.

Sabine Wieland

+49 341 3062 240

+49 341 3062 269

Patenterteilung an Professor der HfTL

Prof. Dr.-Ing. habil. Tilo Strutz hat gemeinsam mit Michael Stegmann (Deutsche Telekom) ein Verfahren zur blockbasierten Dekorrelation von Bildsignalwerten, welches von einer Vorrichtung zur verlustlosen oder nahezu verlustlosen Bilddatenkompression durchführbar ist, entwickelt.

Mehr über das Patent erfahren

Automatische Steuerung von Netzwerkverkehr im Internet

ipoque, der Leipziger Spezialist für Internet Traffic Management und die Hochschule für Telekommunikation Leipzig (HfTL) besiegelten heute ihre Zusammenarbeit in einem Forschungsprojekt im Bereich der Netzwerktechnologie. Das Institut für Kommunikationsinformatik erforscht in dem über zwei Jahre laufenden Projekt die Möglichkeiten der automatischen Steuerung von kleinen Netzwerken, während ipoque der Hochschule in erster Linie beratend zur Seite steht und seine Technologie den Wissenschaftlern zur Verfügung stellt. Die Partner treten mit dem Ziel an, einen Teil der komplexen Software ipoques auch für ganz normale Internetnutzern zugänglich zu machen. Das Projekt orientiert sich dabei an den Brennpunkten der bisherigen Entwicklungen im Netzwerkbereich und ist darauf ausgerichtet Eckpfeiler für die Internet-Technologie der Zukunft zu setzen.

Wichtiger Technologievorsprung


So genannte Kleinnetze finden sich heute in vielen Bereichen unseres Lebens wieder - oft sogar zu Hause. PC, Internet, Fernsehen und Telefonie, das alles wird in Zukunft über das Internet abgewickelt. Während noch vor wenigen Jahren fast ausschließlich Fachleute mit Datennetzen in Berührung kamen, sind es heute oft Laien, die sich damit auseinander setzen müssen. ipoque und die HfTL entwickeln nun gemeinsam an einem Gerät, dass automatisiert bestimmte Anwendungen in Kleinnetzen steuern kann, ohne dass die Nutzer alles von Hand einstellen müssen. "Unser Ziel ist es, dass viele Menschen unsere hochspezialisierte Technologie nutzen können, aber gleichzeitig eigentlich nichts von ihr merken", erklärt Hendrik Schulze, Geschäftsführer von ipoque. "Die Komplexität bleibt dem Nutzer verborgen, er soll nur die Verbesserung spüren." Michael Flegl, Verantwortlicher für das Projekt an der HfTL, ergänzt: "Wir erhoffen uns damit einen Technologievorsprung, der aus wirtschaftlicher Perspektive auch für die Region Leipzig wichtig ist."

Über ipoque

ipoque ist der führende europäische Anbieter von Lösungen zum Internet-Traffic-Management für Internet Service Provider, Unternehmen und öffentliche Einrichtungen. ipoques PRX Traffic Manager ermöglicht eine effektive Erkennung, Kontrolle und Optimierung von Netzwerkanwendungen und fokussiert sich dabei auf die kritischsten und am schwersten zu erkennenden Protokolle, die für Peer-to-Peer-Tauschbörsen (P2P), Instant-Messaging-Dienste (IM), Voice over IP (VoIP), Tunneling und Mediastreaming, aber auch für herkömmliche Internetanwendungen genutzt werden. Weitere Informationen finden Sie unter www.ipoque.com.

Forschung im Verbund - EMV-Zentrum Leipzig

Messaufbau in der EMV-Kammer der HfTL
Messaufbau in der EMV-Kammer der HfTL

Seit nunmehr einem Jahr arbeitet das EMV-Zentrum Leipzig erfolgreich unter dem Dach des Forschungs- und Transferzentrums der HTWK (FTZ) als kooperatives Leistungszentrum auf der Grundlage eines Verbundprojektes zwischen der Hochschule für Technik, Wirtschaft und Kultur (HTWK Leipzig) und der Hochschule für Telekommunikation Leipzig (HfTL) in den Laboren beider wissenschaftlichen Einrichtungen.

Zielstellung ist es, vorrangig klein- und mittelständischen Unternehmen der Region Beratung und Unterstützung bei der Entwicklung von Komponenten, Geräten und Produkten im Bereich der Elektromagnetischen Verträglichkeit (EMV) zu geben.

Vorangegangen war eine Recherche zum regionalen und überregionalen Bedarf an EMV-Dienstleistungen, die durch die Leipziger Stiftung für Technologietransfer und die Industrie- und Handelskammer Leipzig unterstützt wurde. Erstellt wurde ein Katalog möglicher Prüfungen zur Störfestigkeit und Störemission, wobei die bereits an beiden Hochschulen vorhandenen Kompetenzen im Bereich der EMV gebündelt wurden.

Im Ergebnis dieser Konzeptionsphase konzentriert sich das Dienstleistungs-Portfolio des EMV-Zentrums auf:

  • EMV Pre-Compliance Testing,
  • Seminar- und Weiterbildungsangebote,
  • Forschungs- und Entwicklungsprojekte für und mit der Industrie/Auftragsforschung.


Besonders im Bereich von entwicklungsbegleitenden Messungen hat sich in relativ kurzer Zeit eine nach außen sichtbare stabile Zusammenarbeit mit regionalen Firmen entwickelt. Die Überprüfung der Einhaltung von EMV-Anforderungen bereits in der Entwicklungsphase von Gerätekomponenten und Produkten hat sich bewährt, da auf Grund gesetzlicher Vorgaben die Einhaltung geltender Emissions- und Immissions-Grenzwerte beim Verkauf bzw. späteren Einsatz des Gerätes gewährleistet werden muss. So werden zeit- und kostenintensive Nachentwicklungen vermieden. Dieser Sachverhalt wird durch die Arbeit akkreditierter EMV-Labore unterstrichen, die in diesem Zusammenhang darauf verweisen, dass etwa 50% aller neu entwickelten Produkte den EMV-Test gemäß den geltenden einheitlichen Prüfnormen erst im zweiten oder gar dritten Anlauf schaffen.

Obwohl Pre-Compliance Testing nicht die geforderte zertifizierte EMV-Prüfung für bestimmte Anwendungen ersetzt, zeigen die praktischen Arbeiten im EMV-Zentrum Leipzig, dass gerade das vorhandene wissenschaftlich technische Know-how unter Nutzung der hochwertigen Test- und Prüfeinrichtungen an beiden Hochschulen der Garant für die erfolgreiche Zusammenarbeit mit den Partnern der Region ist.

emv.ftz-leipzig.de

Kontakt:


Forschungs- und Transferzentrum Leipzig e.V. an der HTWK
Carsten Rabe M.Eng.
+49 341 3062-237
emv@ftz-leipzig.de

Vorab veröffentlicht in der IHK-Kammerzeitschrift "Agil" und den Netzwerknachrichten.

JobMining@HfTL – ein innovatives Projekt zur Bildungsbedarfsanalyse von Unternehmen der ICT-Branche

Text-Mining-System

Die extrem kurzen Technologiezyklen in der ICT-Industrie stellen die Mehrzahl der Unternehmen vor das Problem, Mitarbeiter zeit- und themenadäquat sowie zielgerichtet weiter zu qualifizieren. Stetig schrumpfende Budgets für die Aus- und Weiterbildung verschärfen diesen Prozess. Für Bildungsanbieter erwächst damit die Herausforderung, relevante Bildungsthemen möglichst frühzeitig zu identifizieren, ökonomisch zu bewerten und ausgewählte Themen in Form geeigneter Leistungsangebote zur Marktreife zu bringen.

Aus dieser Problemstellung entstand an der Hochschule für Telekommunikation Leipzig (HfTL) das von Prof. Dr. Frank Bensberg betreute Projekt JobMining@HfTL. Primäres Ziel dieses Forschungsprojekts ist es, mithilfe von Textanalysen aus den Stellenausschreibungen des Jobportals der Deutschen Telekom AG detaillierte Zusammenhänge zu ermitteln. Mit einer umfassenden Analyse der ausgeschriebenen Stellen ist es möglich, zahlreiche Informationen über spezifische Bildungsanforderungen an Bewerber zu generieren. Das gewonnene Wissen ermöglicht Bildungsanbietern, ihre Aus- und Weiterbildungsmaßnahmen effektiver und zielgerichteter zu planen und zu vermarkten.

Das Projektteam stand vor der Herausforderung, mit statistischen und linguistischen Analysemethoden weitgehend unstrukturierte Datenmengen zu verarbeiten. Die Daten liegen in unterschiedlichen Formaten in elektronischer Form vor. Mit einer Crawlerkomponente wird daraus ein weiter verarbeitbarer Rohbestand an Dokumenten extrahiert. Diese Dokumente werden anschließend mithilfe einer grammatikalischen Analyse in einzelne Wortarten und -folgen zerlegt und über Filteroptionen entsteht so ein Index mit zuordenbaren Schlüsselwörtern.

Im Rahmen des Projektes JobMining@HfTL sind innerhalb von drei Monaten mehr als 1.100 Stellenanzeigen mit der oben beschriebenen Methode automatisch extrahiert worden. Die dabei gewonnen Rohdaten bildeten die Grundlage für die Anwendung von Analysemethoden des Text Mining. Im Zuge der Analyse sind die Stellenanzeigen nach Schlüsselwörtern durchsucht worden, die für typische ingenieur- bzw. wirtschaftswissenschaftliche Studiengänge stehen (z. B. Nachrichten- und Elektrotechnik, Informatik, Wirtschaftsinformatik, Betriebswirtschaft). Dies wird vom eingesetzten Text Mining-System durch eine Abfragesprache unterstützt, mit der komplexe Suchausdrücke formuliert werden können. Das Ergebnis der umfangreichen Analysen lieferte dem Projektteam wertvolle Einblicke in die unterschiedlichen Stellenprofile, die im ICT-Sektor derzeit gesucht werden. Diese Informationen sind besonders für Bildungsanbieter hilfreich, um Studiengänge neu zu konzipieren oder aber grundlegend zu erneuern.

Insbesondere bei informatikorientierten Studiengängen befinden sich die Ausbildungsinhalte im Spannungsfeld zwischen dem längerfristig gültigen Konzeptwissen und dem tendenziell eher kurzfristig ausgerichteten Produktwissen . Um diesem Sachverhalt Rechnung zu tragen, sind auf Grundlage der identifizierten Schlüsselwörter drei unterschiedliche Kategorien gebildet worden, die unterschiedliche Gruppen von Ausbildungsthemen reflektieren:

 

  • Konzepte & Methoden beinhalten die Kompetenzen potenzieller Bewerber in den grundlegenden Arbeitstechniken, wie z. B. im Bereich des Projektmanagements.
  • Die Kategorie Sprache umfasst die Kenntnisse in den Programmiersprachen, wobei hier derzeit der Fokus auf Java liegt.
  • Erfahrungen in Bürosoftware wie z. B. Microsoft Office, Einzelanwendungen und explizit SAP sind Bestandteil der Kategorie Hersteller & Produkte.


Als neues und potenziell nützliches Wissen des Text Mining wurden insbesondere diejenigen Ergebnisse angesehen, die durch die Analyse der Kategorien Konzepte & Methoden sowie Sprachen gewonnen werden konnten. Hier konnte festgestellt werden, dass im ICT-Sektor momentan bestimmte Themen hohe Bedeutung besitzen. Hierzu gehören insbesondere solche Instrumente, die zur effizienteren Organisation der betrieblichen Informationsverarbeitung beitragen, wie etwa die IT Infrastructure Library als Referenzmodell für die Strukturierung von IT-Centern.

Bei der Auswertung der Daten entstand außerdem die Problematik, dass keine Aussagen über die zeitliche Entwicklung einzelner Bildungsthemen getroffen werden können. Da jedoch gerade im ICT-Sektor mit einer hohen Dynamik bei der Adoption neuer Konzepte und Technologien zu rechnen ist, wurde eine Trendanalyse implementiert, welche die Häufigkeiten von Schlüsselwörtern im Zeitablauf visualisiert und starke Häufigkeitszunahmen gesondert darstellt. Auf diese Weise entsteht ein Modell, um die Entwicklung von Bildungsthemen im Zeitablauf zu verfolgen.

Die Analyseergebnisse des Projekts haben gezeigt, dass mithilfe des Text Mining interessante Informationen aus Stellenanzeigen extrahiert werden können, die für die fachlich-inhaltliche Ausgestaltung von Ausbildungsangeboten verwendbar sind. An der HfTL wird derzeit ein dualer und ein berufsbegleitender Masterstudiengang für Wirtschaftsinformatik geplant. Die im Projekt JobMining@HfTL gewonnenen Ergebnisse fließen in die Curricula dieser Studiengänge ein und stellen somit eine optimale Ausrichtung des Bildungsangebots an den Bedürfnissen des ICT-Markts sicher.

Optische Datenbusse der Zukunft

Unter dem Titel "Breaking the Gigabit Barrier" hat Prof. Dr. Bunge von der Hochschule für Telekommunikation Leipzig im Rahmen des MOST Forum 2011 einen Vortrag über die Standardisierungsaktivitäten bei optischer Kurzsstreckenübertragung im Haus, aber auch die Perspektiven für die Anwendung im Auto (MOST ist der optische Datenbus in nahezu allen europäischen Autos) gehalten. Zahlreiche wissenschaftliche Beiträge zum MOST Forum sowie die Folien zum Vortrag von Prof. Dr. Bunge sind jetzt für alle Interessierten im Internet frei verfügbar.

Die „neue“ Mobilität und der Erfolgsfaktor Netz-Infrastruktur

Eine neue Form von umfassender Mobilität scheint bereits heute zum Greifen nahe. Allerdings bedarf es für den gewünschten Durchbruch bei der Elektromobilität – neben entsprechend innovativer Fahrzeuge – einer funktionierenden, konvergenten Infrastruktur für effiziente Lade- und Billingprozesse. Stand bislang in der allgemeinen öffentlichen Debatte das Automobil selbst – zunächst als Hybrid-Version – noch im Vordergrund, so rückt inzwischen vermehrt auch die Frage nach effizienten Lade- und Abrechnungswegen in den Fokus öffentlicher Betrachtung. Neben Automobilclubs und Energieversorgern finden sich dabei inzwischen vermehrt auch kommunale Akteure wie Gemeinden als Vorreiter im Ausbau von öffentlich zugänglichen Ladestationen. So könnte die vorhandene Ladeinfrastruktur für Elektroautos in der regionalen Betrachtung sogar zum Standort- und Wettbewerbsfaktor werden.

 


Den gesamten Artikel lesen

Forschung im Verbund - EMV-Zentrum Leipzig

Messaufbau in der EMV-Kammer der HfTL

Seit nunmehr einem Jahr arbeitet das EMV-Zentrum Leipzig erfolgreich unter dem Dach des Forschungs- und Transferzentrums der HTWK (FTZ) als kooperatives Leistungszentrum auf der Grundlage eines Verbundprojektes zwischen der Hochschule für Technik, Wirtschaft und Kultur (HTWK Leipzig) und der Hochschule für Telekommunikation Leipzig (HfTL) in den Laboren beider wissenschaftlichen Einrichtungen. Zielstellung ist es, vorrangig klein- und mittelständigen Unternehmen der Region Beratung und Unterstützung bei der Entwicklung von Komponenten, Geräten und Produkten im Bereich der Elektromagnetischen Verträglichkeit (EMV) zu geben.

Vorangegangen war eine Recherche zum regionalen und überregionalen Bedarf an EMV-Dienstleistungen, die durch die Leipziger Stiftung für Technologietransfer und der Industrie- und Handelskammer zu Leipzig unterstützt wurde.

Mehr über die gemeinsame Forschung erfahren

Forschungsbericht des Instituts für Hochfrequenztechnik erschienen

Das Institut für Hochfrequenztechnik der HfTL hat den Forschungsbericht 2009 - 2011 veröffentlicht. Das von Prof. Dr. Thomas Schneider geleitete Institut forscht mit internationalen Partnern an richtungsweisenden Projekten. Prof. Schneider erhielt für seine erfolgreiche Forschungsarbeit im vergangenen Jahr den Deutsche Telekom Patent Award überreicht.

Download des Forschungsberichtes 

Biegeunempfindliche Multimode-Fasern im RZ Von Christian-Alexander Bunge, tätig an der Hochschule für Telekommunikation Leipzig im Bereich FG Optische Nachrichtentechnik und Andreas Huth, tätig bei J-Fiber in Jena.

Biegeunempflindliche Fasern versprechen niedrige Verluste auch bei kleinsten Biegeradien von wenigen Millimetern. So lassen sich Dämpfungserhöhungen vermeiden. Aber diese Eigenschaften müssen durch Kompromisse im Faserdesign erkauft werden. Es gilt, alle Aspekte zu beleuchten und genau abzuwägen, ob die Vorteile bei biegeunempfindlichen Multimode-Fasern die Nachteile überwiegen.

Veröffentlicht am 11. Februar 2011 bei www.lanline.de

Mehr Infos zu biegeunempfindliche Multimode-Fasern

Übergabe des LoI an Prof. Müller, HfTL

Die HfTL wird mir ihren Partnern in der Modellregion Elektromobilität Sachsen ein F&E-Projekt durchführen. Die AMI 2010 bildeten den Rahmen für die Übergabe der Letters of Intent an die Projektpartner durch das Bundesministerium für Verkehr, Bau und Stadtentwicklung. Sachsen ist eine von acht Modellregionen die vom Bundesministerium für Verkehr, Bau und Stadtentwicklung gefördert werden, um Entwicklungsprojekte und Mobilitätskonzepte der Elektromobilität voranzutreiben. Die Städte Leipzig und Dresden wurden als Modellstädte für die Thematik Flottenmanagement elektrisch angetriebener Fahrzeuge (Busse, PKW, Kleintransporter) ausgewählt.

Auf der AMI 2010 wurde die Projektförderung nun durch die Übergabe der so genannten Letters of Intent durch den parlamentarischen Staatssekretär Jan Mücke in Aussicht gestellt. Im Mai werden die Zuwendungsbescheide an den beiden beteiligen Hochschulen HTW Dresden und der HfTL erwartet. Dann wird das Team um Prof. Müller an der HfTL beginnen eine IT-Infrastruktur aufzubauen, die die Steuerung der Ladevorgänge an Flottenfahrzeugen mit Regel- und Individualbetrieb zu entwickeln. Gemeinsam mit den Partnern DREWAG, ENSO, KEMA-IEV, Stadtwerke Leipzig, LTB, Prof. Hübner von der HTW Dresden sowie weiteren assoziierten Partnern werden in den Modellstädten Ladestationen aufgebaut, IT-Systeme von Elektrofahrzeugen zur Integration in ein Flottenmanagementsystem erweitert und eine Infrastruktur für den Bezug elektrischer Ladung und die entsprechende Abrechnung geschaffen. Gemeinsam mit dem Dresdner Partner KEMA-IEV wird die HfTL dabei auch die Rückkopplung auf die Netze der Energieversorger betrachten und so die Brücke zum kommenden Smart-GRID schlagen.

HfTL erforscht die Grenzen von IR-Lasern zur 3D-Sturzerkennung

Tiefenabbildung einer Person im Raum

Eine ältere Frau stürzt in ihrer Wohnung. Sie ist allein und kann sich nicht selbst helfen. Um solch ein Szenario in Zukunft zu verhindern, forschen Ingenieure und Wissenschaftler der Deutschen Telekom AG an automatischen Alarmierungssystemen. Die Hochschule für Telekommunikation (HfTL) in Leipzig ist mit einem fünfköpfigen Team tief in diese Arbeiten integriert. Eine von ihnen ist Evelin Mazny. Die 27-jährige hat für ihre Bachelor-Arbeit (Titel: „Die   Auswirkungen   der   optischen   Eigenschaften   alltäglicher   Gegenstände   auf   diePersonenerkennung mittels strukturierten Lichts“) die speziellen Eigenschaften eines Laserscanners eruiert. Nach ihrem Bachelorstudium ist sie nun Mitarbeiterin der Deutschen Telekom und arbeitet berufsbegleitend an ihrem Masterabschluss. Das    Thema    der    Sturzerkennung    eröffnet   uns  die    Möglichkeit    einer    interessanten Industriekooperation mit der T-Systems International GmbH in München. Die verwendeten Laserscanner werden in Unterhaltungsgeräten wie die „Kinect“, der Videospielkonsole Xbox 360, eingesetzt. Ihre Besonderheit ist, dass der Spieler mit seinen Hand- und Fußbewegungen das Spiel steuert. Da diese Hardware besonders geeignet zur Personenerkennung ist, kann man sie auch als Sturzdetektor verwenden.

Mehr über das Forschungsprojekt erfahren

Licht bewegt sich mit Lichtgeschwindigkeit Spitzenforschung an der HfTL

Licht bewegt sich mit Lichtgeschwindigkeit! - Schon 1887 konnten die Physiker Albert Michelson und Edward Morley in einem Experiment zeigen, dass sich Licht sowohl in einem ruhenden als auch in einem gleichförmig bewegten Bezugssystem in allen Richtungen mit derselben Geschwindigkeit ausbreitet. Diese Tatsache war für die spezielle Relativitätstheorie Albert Einsteins von entscheidender Bedeutung. Nach dieser dürfen Beobachter in beliebigen gleichförmig bewegten oder ruhenden Bezugssystemen immer nur dieselbe Geschwindigkeit für das Licht messen. Dieses über 100 Jahre alte Dogma wird Kausalitätsprinzip genannt und aus ihm folgt insbesondere, dass sich die Wirkung nicht schneller ausbreiten kann als ihre Ursache.

Die eindeutige und einfache Geschwindigkeit des Lichts gilt aber nur im Vakuum. Ein Medium – wie z.B. ein Kristall, Wasser oder die Glasfasern über die die heutige weltweite Kommunikation, Fernsehsignale und die Daten des Internet laufen – besteht aus einzelnen Atomen oder Molekülen. Diese werden durch die Lichtwelle zu Schwingungen angeregt und strahlen ihrerseits wieder Lichtwellen aus, die sich untereinander und mit der ursprünglichen Lichtwelle überlagern. Die resultierende Lichtwelle bewegt sich daher mit einer anderen Geschwindigkeit. In diesen so genannten dispergierenden Medien haben Arnold Sommerfeld und Leon Brillouin schon im Jahre 1912 fünf verschiedene Geschwindigkeiten definiert, von denen einige größer, aber auch erheblich kleiner sein können als die Lichtgeschwindigkeit im Vakuum. So kann Licht beispielsweise dazu gebracht werden sich mit der Geschwindigkeit eines Fahrrads auszubreiten und es kann sogar vollständig gestoppt werden. Aber auch das andere Extrem ist möglich, so konnte Licht z.B. auf die 310fache Vakuum-Lichtgeschwindigkeit beschleunigt werden.

Auch an der Hochschule für Telekommunikation Leipzig (HfTL) beschäftigt sich eine kleine Gruppe von ForscherInnen unter Anleitung von Prof. Thomas Schneider mit diesem Phänomen. Für sie ist die Verlangsamung und Speicherung von Lichtpulsen von besonderem Interesse. Dies hat ganz praktische Gründe. Die optische Zwischenspeicherung wird als Schlüsseltechnologie für die Beschleunigung der weltweiten Telekommunikation und des Internet gesehen. Nebenher gibt es aber noch eine Vielzahl weiterer Anwendungsfelder in den Ingenieurwissenschaften, der Medizin, Biologie und Physik.

Für die Verlangsamung des Lichts benutzt die Forschungsgruppe der HfTL ein Verfahren bei dem der Brechungsindex in einer Glasfaser durch entgegen laufendes Licht einer geringfügig anderen Farbe beeinflusst werden kann. Bislang erzielte das Team eine Verzögerung von 3 bit (also 3 Pulsen). Zur Lichtspeicherung wird hingegen der Zusammenhang zwischen der Zeit- und Frequenzfunktion eines beliebigen Signals ausgenutzt. Dabei konnten inzwischen 8Bit Pakete eines 1Gbit/s-Signals um 100ns gespeichert werden. Dies entspricht einer relativen Speicherung um 100Bit. Das sind die weltweit besten Ergebnisse und alle Beteiligten sind zuversichtlich diese Ergebnisse noch weiter steigern zu können. Außerdem arbeiten sie inzwischen daran, das Verfahren in einem optischen Chip unterzubringen.

Zum Team um Prof. Schneider gehören Kambiz Jamshidi als Postdoc sowie die Doktoranden Andrzej Wiatrek, Ronny Henker und Stefan Preußler sowie Jens Klinger als verantwortlicher Labor-Ingenieur.

Weitere Forschungsgebiete des Teams sind neben der hochauflösenden Spektroskopie, die Millimeterwellen- oder Terahertzwellenerzeugung für Datenübertragungen die einmal zu einer Vervielfachung der Übertragungsgeschwindigkeit von mobilen Kommunikationssystemen führen kann.

Maximale Geschwindigkeit für das weltweite Netz

Grafische Darstellung Lichtsignal in Glasfaser (Jamani Caillet / EPFL)

Ein Forscher der HfTL hat zusammen mit Kollegen der EPFL in Lausanne eine Methode entwickelt, um Daten mit der maximal möglichen Symbolrate in optischen Glasfasern zu übertragen. Optische Fasern sind das Rückgrat der gesamten modernen Kommunikation und des Internets. Die Anfragen an Internet-Suchmaschinen und ihre Ergebnisse, Filme, Musik und viele andere Daten werden mit Hilfe von Lichtsignalen über das weltweite Glasfasernetz übertragen.

Glasfasern haben eine immense Kapazität und sind damit bislang in der Lage, die riesigen, täglich erzeugten Datenmengen zu transportieren. Neue Anwendungen wie z.B. das hochauflösende und demnächst wahrscheinlich das ultra-hochauflösende Fernsehen on-demand, aber auch Smartphones, Tablets und andere Geräte mit immer höherer Bandbreite führen allerdings dazu, dass die Datenrate in den weltweiten Kommunikationsnetzen derzeit mit einer Rate von 38 % pro Jahr steigt. Die Glasfasernetze haben zwar eine sehr große, aber keine unendliche Kapazität.

Thomas Schneider, Professor der Hochschule für Telekommunikation Leipzig (HfTL), hat während seines Aufenthalts als Gastprofessor an der EPFL in Lausanne, Schweiz, zusammen mit den Arbeitsgruppen von Camille-Sophie Brès und Luc Thévenaz eine innovative Methode entwickelt, wie mit relativ wenig Aufwand die maximal mögliche Symbolrate in optischen Fasern übertragen werden kann. Dies kann zu einer drastischen Steigerung der übertragbaren Datenraten und damit zu einem weiteren, ungehinderten Wachstum des Internet führen.

Lichtsignale, die in den Fasernetzen übertragen werden, sind die Arbeitspferde des Internets. Diese Lichtsignale sind elektromagnetische Wellen, deren Parameter in Abhängigkeit von der zu übertragenden Information verändert werden. Die Lichtsignale in den Glasfasern haben Wellenlängen von 1550 nm und liegen damit im Bereich des nahen Infrarot. Das Licht, welches der Mensch direkt mit seinen Augen sehen kann, hat hingegen Wellenlängen zwischen 800 nm (Rot) und 400 nm (Violett). Der einfachste Parameter des Lichts der verändert werden kann, ist die Amplitude. Das Licht wird also einfach an- und ausgeschaltet, je nachdem ob eine „1“ oder eine „0“ des digitalen Signals übertragen werden soll.

Um höhere Datenraten übertragen zu können, werden heute aber auch die Phase oder die Frequenz des Lichts zur Übertragung der Information genutzt. Diese Veränderung der Parameter der Welle, in Abhängigkeit von dem zu übertragenden Signal, wird Modulation genannt. Eine solche Modulation führt aber dazu, dass neue Wellen mit neuen Frequenzen entstehen. Je höher die zu übertragenden Datenraten sind, umso mehr Frequenzen werden dazu benötigt. Die Menge der Frequenzen, die für das modulierte Signal benötigt werden, wird als Spektrum bezeichnet.

Eine Glasfaser kann nur eine bestimmte Menge von Frequenzen, und damit nur eine bestimmte maximale Menge an Information transportieren. Damit eine Vielzahl an Information gleichzeitig in der Glasfaser übertragen werden kann, wird das gesamte zur Verfügung stehende Spektrum der Faser in einzelne Kanäle aufgeteilt, so wie z.B. die Fahrspuren auf einer Autobahn. Die maximal mögliche Menge an Information lässt sich transportieren, wenn die Kanäle so dicht wie möglich gepackt werden können. Damit das möglich wird, muss jeder einzelne Kanal ein rechteckförmiges Spektrum aufweisen.

Ein rechteckförmiges Spektrum bedeutet aber, dass das Signal mit einer sinus cardinalis (sinc)-Funktion moduliert werden muss. Diese Funktion ist aber unendlich lang ausgedehnt und damit praktisch leider nicht realisierbar. Es gab bereits mehrere Versuche solche Pulse zu erzeugen und für die Datenübertragung zu nutzen, allerdings sind diese meist sehr aufwändig und besitzen kein rechteckförmiges Spektrum, oder sie sind nicht in der Lage, die gesamte Bandbreite der Glasfaser zu füllen.

Während seiner Gastprofessur an der EPFL entwickelte Thomas Schneider von der HfTL in Diskussionen mit Kollegen die entscheidende Idee, an Stelle eines einzelnen sinc-Pulses, eine Pulsfolge zu nehmen. Im Gegensatz zum nur theoretisch realisierbaren einzelnen Puls lässt sich diese Pulsfolge sehr einfach durch einen Frequenzkamm herstellen. Damit lassen sich die Pulse direkt im optischen Bereich erzeugen und jeder einzelne Kanal kann ein sehr breites, rechteckförmiges Spektrum aufweisen. In Zusammenarbeit mit den beiden Gruppen von Camille Sophie Brés und Luc Thevénaz konnte der Nachweis erbracht werden, dass die Pulsfolge dieselben Eigenschaften für eine Datenübertragung aufweist wie die einzelnen Pulse. Gleichzeitig konnte in ersten Experimenten gezeigt werden, dass sich diese Pulse tatsächlich sehr einfach erzeugen lassen und ein annähernd ideales rechteckförmiges Spektrum haben. Für eine Realisierung in den weltweiten Glasfasernetzen müssen nur der Sender und Empfänger ausgetauscht werden. Damit eröffnen die neuen optisch erzeugten Pulse die Möglichkeit, Daten mit der maximalen Geschwindigkeit über optische Glasfasern zu übertragen.