- Miniképernyős, VIA-s Epomaker billentyűzet jött a kábelmentes szegmensbe
- Különösen rendezett beltér hozható össze a Cooler Master új házában
- A középkorra és a pokolra is gondolt az új AMD Software
- Új gyártástechnológiai útitervvel állt elő a TSMC
- A Gigabyte is visszaveszi alaplapjainak alapértelmezett tuningját
- OLED TV topic
- Kormányok / autós szimulátorok topicja
- Apple notebookok
- Házimozi belépő szinten
- Milyen belső merevlemezt vegyek?
- Új gyártástechnológiai útitervvel állt elő a TSMC
- Übergyors Samsungnak próbál látszani egy hamisított NVMe SSD
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- HiFi műszaki szemmel - sztereó hangrendszerek
- AMD GPU-k jövője - amit tudni vélünk
Hirdetés
-
Különösen rendezett beltér hozható össze a Cooler Master új házában
ph A 49,73 literes térfogatú, látszólag jól szellőző modell tárt karokkal várja a konnektoraikat rejtő ASUS és MSI alaplapokat.
-
Rossz üzlet az EV-kölcsönzés
it Küszködik az EV-kölcsönzés miatt a Hertz Global, még több EV-t adnak el.
-
Toyota Corolla Touring Sport 2.0 teszt és az autóipar
lo Némi autóipari kitekintés után egy középkategóriás autót mutatok be, ami az észszerűség műhelyében készül.
Új hozzászólás Aktív témák
-
Balint P.
csendes tag
Scala Spark Senior Developer
We are seeking talented Scala Spark Developer to create innovative solutions on our team. Our team manages large data stores of customer interactions data, providing a foundation for machine learning analytics and contextual, omni-channel interaction routing. You would be responsible for creating & maintaining large data sets and streaming solutions within our Hadoop environment, along with the read/write services that enable the collection and retrieval of the data. You will work in team to design and implement Hadoop based data extraction, transformation; processing for load or presentation into visualization and reporting tools. Your duty is to work with data from traditional databases & data warehouses, web services, MongoDb /Kafka sources process; transform and augment the data structuring it into views suitable for integration with tools (e.g. visualization and reporting).
Required Skills:
• Proven expertise w/leveraging big data components to build large scale data processing systems. Proven experience in building in Data Driven applications using a combination of Java/Scala and the Spark framework. Sound knowledge about Hadoop platform and Data Streaming (e.g. Kafka). Good understanding of Apache Spark architecture and having hands-on experience. Experience building a distributed Apache Hadoop multi-node large cluster. Build data pipelines and ETL using heterogeneous sources to Hadoop using Kafka, Flume, Sqoop, Spark Streaming etc. Tuning performance optimization of Spark data pipelines. Experience in batch or real time data streaming
• Knowledge of design strategies for developing scalable, resilient, always-on data lake.
• Must be very comfortable with reading and writing Scala, Python or Java code. Have strong experience in designing and programming in Java/Scala in Unix/Linux environment.
• Develops programming and development standards and procedures as well as programming architectures for code reuse. Has in-depth knowledge of state-of-the art programming languages and object-oriented approach in designing, coding, testing and debugging programs.
• Ability to write scalable, reliable, high performance distributed application
• Experience in agile development methodology
If you are interested in the positions, please send your CV to Balint Pápai, IT Recruitment Divison Manager: papai.balint@job.hu or call +36 20 328 7080
Új hozzászólás Aktív témák
- Amazfit I T-REX 2 I GTS 3 I GTR 3 I GTR 3 Pro
- Új Latitude 7440 2-in-1, FHD+ IPS kihajtható érintő, i7-1365U, 32GB DDR5, 512GB NVMe, IR kamera, gar
- Beszámítás! GB H610M i5 13400F 32GB DDR4 1TB SSD RTX 3070Ti 8GB MONTECH AIR 1000 Lite Corsair 650W
- Xiaomi Instant Photo Printer 1S Set Bontatlan!
- Beszámítás! GB H610M i5 13400F 16GB DDR4 250GB SSD RTX 3070Ti 8GB MONTECH AIR 100 Lite Chieftec 700W