Mitarbeiterbereich

Aktuelle Projektangebote

Dieses Angebot habe ich bei SD&T gefunden:
\nZeitraum: ab 01.10.2020 für ca. 120 PT mit Option auf Verlängerung
\n Einsatzort: Homeoffice
\n Vertragsverhältnis: Anstellung, Freiberuflichkeit
\n Aufgabe:
- Implementierung der neuesten Data Science in eine Splunk Umgebung
- Entwicklung und Implementierung von KI/Maschinelles Lernen, neuronales Deep Learning, XAI (eXplainable AI) und IoT/OT (Operational Technology)
- Research von KI-Produkten für Splunk, Bewertung der Qualität der Produkte, Auswahlmatrix für den Einsatz dieser Produkte
- Testen und Erweiterungen von KI-basierenden Add-on-Produkten für Splunk
- Testen von Open Source Produkten und Bibliotheken für die Verwendung in Splunk
- Entwicklung von KI-Use Cases für IoT/OT

Anforderungen.
Kenntnisse und Erfahrungen:
- in oben genannten Aufgaben
- mit mindestens einem dieser ML/DL Tools: SciKit-Learn, ML Flow, Tensorflow 2.0, Py Torch 1.x
- HBase + Phoenix, Hive, PostgreSQL
- Möglichst NLP-Erfahrung (Natural Language Processing) mit Libraries wie Google BERT, Sling, spaCy, GPT-2, Stanford CoreNLP, AllenNLP, OpenEphyra, DELPH-IN PET Parser, Enju, Grammix
- Erfahrung mit möglichst vielen dieser neuronalen Konzepte: (De-)Convolution, [Min/Max/Average] (Un-) Pooling, Activation Functions, SELU, ELU, ReLU,, Self-Attention, Multi-Head-Attention, LSTM, GRU, NAC (Neural Accumulator), NALU, Squeeze-and-Excitation (SE) / SENet, SPN (Sum-Product Network), VAE, FCLs (Fully Connected Layers), GANs, Capsule Networks, gcForest, Hierarchical Temporal Memory (HTM), Differentiable Programming, ResNet, ResNext, DenseNet, Neural Architecture Search (NAS)
- Semi-Supervised Learning und Self-Supervised Learning (SSL)
- Umfassende Python oder Scala (oder notfalls Java) Programmiererfahrung
- Kenntnis möglichst viele eXplainable AI (XAI) Techniken: Learn to Explain, Anchors, GAM, LRP, LOCO, LIME, SHAP, PDP + ICE plots
- Erfahrung in mindestens einem der optionalen Toolsets sowie weiterhin in mindestens einem dieser Toolsets: Klassisches Data Science: GBM (Gradient Boosting Machine), XGBoost, CatBoost, LightGBM, stacked ensembles, blending, MART (Multiple Additive Regression Trees), Generalized Linear Models (GLM), Distributed Random Forest (DRF), eXtremely Randomized Tree (XRT), Labeling/Labelling, Bootstrap aggregating (bagging), Receiver Operating Characteristic (ROC)/AUC
- Wireshark + plugins
- Probabilistic reasoning, Bayesche Netzwerke
- Deutsche oder englische Sprachkenntnisse (fließend)

Wir weisen ausdrücklich darauf hin, dass alle Formulierungen in den Projekt- und Stellenangeboten geschlechtsneutral sind. Bewerbungen von Frauen und Männern sind gleichermaßen für alle Anzeigen willkommen. Entscheidend sind die fachlichen und persönlichen Qualifikationen.

Telekommunikation-CyberSecurity-/ Splunk Spezialist (all gender) (Ref.Nr.: 16445 - PT)

Vertragsverhältnis Anstellung, Freiberuflichkeit
Zeitraum ab 01.10.2020 für ca. 120 PT mit Option auf Verlängerung
Einsatzort(e) Homeoffice
Aufgaben Aufgabe:
- Implementierung der neuesten Data Science in eine Splunk Umgebung
- Entwicklung und Implementierung von KI/Maschinelles Lernen, neuronales Deep Learning, XAI (eXplainable AI) und IoT/OT (Operational Technology)
- Research von KI-Produkten für Splunk, Bewertung der Qualität der Produkte, Auswahlmatrix für den Einsatz dieser Produkte
- Testen und Erweiterungen von KI-basierenden Add-on-Produkten für Splunk
- Testen von Open Source Produkten und Bibliotheken für die Verwendung in Splunk
- Entwicklung von KI-Use Cases für IoT/OT

Anforderungen.
Kenntnisse und Erfahrungen:
- in oben genannten Aufgaben
- mit mindestens einem dieser ML/DL Tools: SciKit-Learn, ML Flow, Tensorflow 2.0, Py Torch 1.x
- HBase + Phoenix, Hive, PostgreSQL
- Möglichst NLP-Erfahrung (Natural Language Processing) mit Libraries wie Google BERT, Sling, spaCy, GPT-2, Stanford CoreNLP, AllenNLP, OpenEphyra, DELPH-IN PET Parser, Enju, Grammix
- Erfahrung mit möglichst vielen dieser neuronalen Konzepte: (De-)Convolution, [Min/Max/Average] (Un-) Pooling, Activation Functions, SELU, ELU, ReLU,, Self-Attention, Multi-Head-Attention, LSTM, GRU, NAC (Neural Accumulator), NALU, Squeeze-and-Excitation (SE) / SENet, SPN (Sum-Product Network), VAE, FCLs (Fully Connected Layers), GANs, Capsule Networks, gcForest, Hierarchical Temporal Memory (HTM), Differentiable Programming, ResNet, ResNext, DenseNet, Neural Architecture Search (NAS)
- Semi-Supervised Learning und Self-Supervised Learning (SSL)
- Umfassende Python oder Scala (oder notfalls Java) Programmiererfahrung
- Kenntnis möglichst viele eXplainable AI (XAI) Techniken: Learn to Explain, Anchors, GAM, LRP, LOCO, LIME, SHAP, PDP + ICE plots
- Erfahrung in mindestens einem der optionalen Toolsets sowie weiterhin in mindestens einem dieser Toolsets: Klassisches Data Science: GBM (Gradient Boosting Machine), XGBoost, CatBoost, LightGBM, stacked ensembles, blending, MART (Multiple Additive Regression Trees), Generalized Linear Models (GLM), Distributed Random Forest (DRF), eXtremely Randomized Tree (XRT), Labeling/Labelling, Bootstrap aggregating (bagging), Receiver Operating Characteristic (ROC)/AUC
- Wireshark + plugins
- Probabilistic reasoning, Bayesche Netzwerke
- Deutsche oder englische Sprachkenntnisse (fließend)
Jetzt Bewerben

Wir freuen uns, wenn Sie dieses Angebot weiter empfehlen.