JavaRush /Java-Blog /Random-DE /Java und Big Data: Warum Big-Data-Projekte nicht ohne Jav...

Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen

Veröffentlicht in der Gruppe Random-DE
In unseren Artikeln zu JavaRush werden wir nicht müde zu sagen, dass Java, das bald 25 Jahre alt wird, nun seine zweite Jugend erlebt und glänzende Zukunftsaussichten hat. Dafür gibt es eine Reihe von Gründen. Einer davon ist, dass Java die wichtigste Programmiersprache in einer Reihe trendiger und schnell wachsender Nischen des IT-Marktes ist. Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen - 1Am häufigsten werden im Zusammenhang mit tiefer Zuneigung und zärtlichen Gefühlen für Java das Internet der Dinge (IoT) und Big Data sowie Business Intelligence (Business Intelligence, BI) und Real Time Analytics (Echtzeitanalysen) erwähnt. Wir haben kürzlich den Zusammenhang zwischen Java und dem Internet der Dinge diskutiert und darüber gesprochen, wie ein Java-Entwickler sich und seine Fähigkeiten auf diese Nische „zuschneiden“ kann. Jetzt ist es an der Zeit, sich dem zweiten Super-Trendbereich zuzuwenden, der – das stimmt – auch Java liebt und sich ein Leben ohne Java nicht mehr vorstellen kann. Deshalb analysieren wir heute Big Data: Warum Java und damit seine treuen Programmierer auch in dieser Nische so gefragt sind, wie genau diese Sprache in Projekten mit „Big Data“ verwendet wird und was man lernen muss, um über das Notwendige zu verfügen Welche Fähigkeiten Sie für Beschäftigung und Arbeit in dieser Nische benötigen und welche Trends derzeit, am Vorabend des Jahres 2020, für Big Data relevant sind. Und zwischen all dem gibt es hier die Meinungen von Weltklasse-Experten zu Big Data, nach denen sogar Homer Simpson lernen möchte, wie man mit „Big Data“ arbeitet. Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen – 2
„Ich sage immer wieder, dass in den nächsten 10 Jahren nicht Mädchen hinter Sportlern und Börsenmaklern her sein werden, sondern Männer, die mit Daten und Statistiken arbeiten. Und ich mache keine Witze.
Hal Varian,
Chefökonom bei Google

Big Data erobert den Planeten

Aber zuerst ein wenig über Big Data und warum diese Nische so vielversprechend für den Aufbau einer Karriere darin ist. Kurz gesagt, Big Data dringt unweigerlich und stetig und vor allem sehr schnell in die Geschäftsprozesse von Unternehmen auf der ganzen Welt ein, und diese wiederum sind gezwungen, nach Fachleuten für die Arbeit mit Daten zu suchen (das sind natürlich nicht nur Programmierer). ), locken sie mit hohen Gehältern und anderen Leckereien. Laut Forbes ist die Nutzung von Big Data in Unternehmen von 17 % im Jahr 2015 auf 59 % im Jahr 2018 gestiegen . Big Data breitet sich schnell auf verschiedene Wirtschaftsbereiche aus, darunter Vertrieb, Marketing, Forschung und Entwicklung, Logistik und alles andere. Einer IBM-Studie zufolge wird die Zahl der Arbeitsplätze für Fachkräfte in diesem Bereich allein in den Vereinigten Staaten bis 2020 auf über 2,7 Millionen ansteigen. Vielversprechend? Würde es trotzdem tun.

Big Data und Java

Und nun dazu, warum Big Data und Java so viel gemeinsam haben. Die Sache ist, dass viele grundlegende Tools für Big Data in Java geschrieben sind. Darüber hinaus sind fast alle dieser Tools Open-Source-Projekte. Das bedeutet, dass sie jedem zur Verfügung stehen und aus dem gleichen Grund von den größten IT-Unternehmen weltweit aktiv genutzt werden. „Big Data ist zu einem großen Teil Java. Hadoop und ein großer Teil des Hadoop-Ökosystems sind in Java geschrieben. Die MapReduce-Schnittstelle für Hadoop ist ebenfalls Java. Daher wird es für einen Java-Entwickler ziemlich einfach sein, in Big Data einzusteigen, indem er einfach Java-Lösungen erstellt, die auf Hadoop laufen. Es gibt auch Java-Bibliotheken wie Cascading, die die Arbeit erleichtern. Java ist auch zum Debuggen sehr nützlich, selbst wenn Sie etwas wie Hive verwenden [Apache Hive ist ein Hadoop-basiertes Datenbankverwaltungssystem]“, sagte Marcin Mejran, Datenwissenschaftler und Vizepräsident für Datentechnik bei der Firma Eight. „Neben Hadoop ist Storm in Java geschrieben, und Spark (d. h. die wahrscheinliche Zukunft von Hadoop) ist in Scala geschrieben (das wiederum auf der JVM läuft und Spark über eine Java-Schnittstelle verfügt). Wie Sie sehen, spielt Java eine große Rolle bei Big Data. Dies sind alles Open-Source-Tools, was bedeutet, dass Entwickler in Unternehmen Erweiterungen für sie erstellen oder Funktionen hinzufügen können. Diese Arbeit beinhaltet sehr oft die Java-Entwicklung“, fügte der Experte hinzu. Wie wir sehen, werden Java-Kenntnisse in Big Data sowie im Internet der Dinge, im maschinellen Lernen und in einer Reihe anderer Nischen, die immer beliebter werden, einfach unersetzlich sein.
„Jedes Unternehmen hat mittlerweile Big-Data-Pläne. Und alle diese Unternehmen werden im Big-Data-Geschäft landen.“
Thomas H. Davenport,
amerikanischer Akademiker und Experte für Geschäftsprozessanalyse und Innovation
Und nun noch etwas mehr zu den oben genannten Big-Data-Tools, die von Java-Entwicklern häufig verwendet werden.

Apache Hadoop

Apache Hadoop ist eine der grundlegenden Technologien für Big Data und ist in Java geschrieben. Hadoop ist eine kostenlose Open-Source-Reihe von Dienstprogrammen, Bibliotheken und Frameworks, die von der Apache Software Foundation verwaltet werden. Ursprünglich für die skalierbare und verteilte und dennoch zuverlässige Datenverarbeitung und Speicherung großer Mengen unterschiedlicher Informationen konzipiert, entwickelt sich Hadoop für viele Unternehmen zum Zentrum der „Big Data“-Infrastruktur. Unternehmen auf der ganzen Welt suchen aktiv nach Hadoop-Talenten, und Java ist eine Schlüsselkompetenz, die zur Beherrschung dieser Technologie erforderlich ist. Laut Developers Slashdot suchten im Jahr 2019 viele große Unternehmen, darunter JPMorgan Chase mit seinen Rekordgehältern für Programmierer, aktiv auf der Hadoop World-Konferenz nach Hadoop-Spezialisten, aber selbst dort konnten sie nicht genügend Experten mit den Fähigkeiten finden, die sie brauchten (in insbesondere dieses Wissen über das Programmiermodell und das Framework zum Schreiben von Hadoop MapReduce-Anwendungen). Das bedeutet, dass die Gehälter in diesem Bereich noch weiter steigen werden. Und sie sind schon sehr groß. Insbesondere schätzt Business Insider die durchschnittlichen Kosten eines Hadoop-Spezialisten auf 103.000 US-Dollar pro Jahr, während diese Zahl für Big-Data-Spezialisten im Allgemeinen 106.000 US-Dollar pro Jahr beträgt. Recruiting-Manager, die nach Hadoop-Experten suchen, heben Java als eine der wichtigsten Fähigkeiten für eine erfolgreiche Anstellung hervor. Hadoop wird von vielen großen Unternehmen, darunter IBM, Microsoft und Oracle, schon seit langem verwendet oder erst vor relativ kurzer Zeit implementiert. Derzeit haben auch Amazon, eBay, Apple, Facebook, General Dynamic und andere Unternehmen viele Stellen für Hadoop-Spezialisten.
„So wie es kein Feuer ohne Rauch gibt, gibt es auch kein Geschäft ohne Big Data.“
Dr. Thomas Redman,
renommierter Experte für Datenanalyse und digitale Technologien

Apache Spark

Apache Spark ist eine weitere wichtige Big-Data-Plattform, die ernsthaft mit Hadoop konkurriert. Mit seiner Geschwindigkeit, Flexibilität und Entwicklerfreundlichkeit entwickelt sich Apache Spark zum führenden Framework für umfangreiche SQL-, Batch- und Streaming-Daten sowie maschinelles Lernen. Als Framework für die verteilte Verarbeitung von Big Data funktioniert Apache Spark nach einem ähnlichen Prinzip wie das Hadoop MapReduce-Framework und nimmt diesem beim Einsatz im Big Data-Bereich nach und nach die Nase vorn. Spark ist vielseitig einsetzbar und verfügt über Verbindungen zu Java sowie zu einer Reihe anderer Programmiersprachen wie Scala, Python und R. Heutzutage wird Spark häufig von Banken, Telekommunikationsunternehmen, Videospielentwicklern usw. verwendet Regierungen. Natürlich lieben IT-Giganten wie Apple, Facebook, IBM und Microsoft Apache Spark.

Apache Mahout

Apache Mahout ist eine Open-Source-Java-Bibliothek für maschinelles Lernen von Apache. Mahout ist genau ein skalierbares Werkzeug für maschinelles Lernen mit der Fähigkeit, Daten auf einer oder mehreren Maschinen zu verarbeiten. Implementierungen dieses maschinellen Lernens sind in Java geschrieben, einige Teile basieren auf Apache Hadoop.

Apache Storm

Apache Storm ist ein Framework für verteiltes Echtzeit-Streaming-Computing. Storm erleichtert die zuverlässige Verarbeitung unbegrenzter Datenströme und erledigt in Echtzeit das, was Hadoop für Datenmengen tut. Storm lässt sich in jedes Warteschlangensystem und jedes Datenbanksystem integrieren.

Java JFreechart

Java JFreechart ist eine in Java entwickelte Open-Source-Bibliothek zur Verwendung in Java-basierten Anwendungen zum Erstellen einer breiten Palette von Diagrammen. Tatsache ist, dass die Datenvisualisierung eine ziemlich wichtige Aufgabe für eine erfolgreiche Big-Data-Analyse ist. Da bei Big Data mit großen Datenmengen gearbeitet wird, kann es schwierig sein, einen Trend zu erkennen und einfach anhand der Rohdaten zu bestimmten Schlussfolgerungen zu gelangen. Wenn jedoch dieselben Daten in einem Diagramm angezeigt werden, werden sie verständlicher und es ist einfacher, Muster zu finden und Zusammenhänge zu erkennen. Java JFreechart hilft tatsächlich beim Erstellen von Grafiken und Diagrammen für die Big-Data-Analyse.

Deeplearning4j

Deeplearning4j ist eine Java-Bibliothek, die zum Aufbau verschiedener Arten neuronaler Netze verwendet wird. Deeplearning4j ist in Java implementiert und läuft in einer Umgebung, die mit Clojure kompatibel ist und eine API für die Scala-Sprache enthält. Zu den Deeplearning4j-Technologien gehören Implementierungen der eingeschränkten Boltzmann-Maschine, des Deep-Believe-Netzwerks, des Deep-Autoencoders, des gestapelten Autoencoders mit Rauschfilterung, des rekursiven Tensor-Neuronalen Netzwerks, word2vec, doc2vec und GloVe.
„Big Data wird zum neuen Rohstoff für Unternehmen.“
Craig Mundie,
Senior Advisor des CEO von Microsoft

Big Data an der Schwelle zum Jahr 2020: die neuesten Trends

2020 sollte ein weiteres Jahr des schnellen Wachstums und der schnellen Entwicklung von Big Data werden, mit einer breiten Akzeptanz von Big Data durch Unternehmen und Organisationen in verschiedenen Bereichen. Daher beleuchten wir kurz die Big-Data-Trends, die im nächsten Jahr eine wichtige Rolle spielen dürften. Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen – 3

Internet der Dinge – Big Data wird immer größer

Es scheint, dass das Internet der Dinge (IoT) eine etwas andere Geschichte ist, aber das ist nicht der Fall. Das Internet der Dinge liegt weiterhin im Trend, gewinnt an Dynamik und verbreitet sich auf der ganzen Welt. Folglich wächst auch die Zahl der in Haushalten und Büros installierten „intelligenten“ Geräte, die bei Bedarf alle möglichen Daten übermitteln. Daher wird das Volumen der „großen“ Daten nur noch zunehmen. Wie Experten anmerken, verfügen viele Organisationen bereits über viele Daten, vor allem aus dem IoT-Bereich, die sie noch nicht so weit nutzen können, und im Jahr 2020 wird diese Lawine noch größer werden. Folglich werden auch die Investitionen in Big-Data-Projekte rasant zunehmen. Nun, wir möchten Sie daran erinnern, dass IoT auch Java sehr liebt . Nun, wer liebt ihn nicht?

Digitale Zwillinge

Digitale Zwillinge sind ein weiterer interessanter Trend der nahen Zukunft, der in direktem Zusammenhang sowohl mit dem Internet der Dinge als auch mit Big Data steht. Und deshalb wird die Verwendung von Java darin mehr als ausreichend sein. Was ist ein digitaler Zwilling? Dabei handelt es sich um ein digitales Abbild eines realen Objekts oder Systems. Mit einem Software-Analogon eines physischen Geräts können Sie interne Prozesse, technische Eigenschaften und Verhalten eines realen Objekts unter Interferenz- und Umgebungsbedingungen simulieren. Der Betrieb eines digitalen Zwillings ist ohne eine große Anzahl parallel arbeitender Sensoren im realen Gerät nicht möglich. Es wird erwartet, dass es bis 2020 weltweit mehr als 20 Milliarden vernetzte Sensoren geben wird, die Informationen an Milliarden digitaler Zwillinge übermitteln. Im Jahr 2020 dürfte dieser Trend an Dynamik gewinnen und in den Vordergrund treten.

Die digitale Transformation wird intelligenter

Als wichtiger Trend wird seit einigen Jahren die digitale Transformation genannt. Das Problem sei jedoch, sagen Experten, dass viele Unternehmen und Topmanager ein äußerst vages Verständnis davon hätten, was dieser Begriff überhaupt bedeute. Für viele bedeutete die digitale Transformation, Wege zu finden, die von einem Unternehmen gesammelten Daten zu verkaufen, um neue Gewinnquellen zu erschließen. Bis 2020 erkennen immer mehr Unternehmen, dass es bei der digitalen Transformation darum geht, Daten korrekt auf jeden Aspekt ihres Geschäfts anzuwenden, um sich einen Wettbewerbsvorteil zu verschaffen. Daher können wir davon ausgehen, dass Unternehmen die Budgets für Projekte im Zusammenhang mit der richtigen und bewussten Nutzung von Daten erhöhen werden.
„Wir bewegen uns langsam auf eine Ära zu, in der Big Data der Ausgangspunkt und nicht das Ende ist.“
Pearl Zhu, Autorin von Digital Master-Büchern

Ergebnisse

Big Data ist ein weiterer wirklich riesiger Tätigkeitsbereich mit vielen Möglichkeiten, in denen ein Java-Entwickler Einsatz finden kann. Genau wie das Internet der Dinge boomt dieser Bereich und es herrscht ein gravierender Mangel an Programmierern und anderen technischen Experten. Daher ist es jetzt an der Zeit, mit dem Lesen solch langer Artikel aufzuhören und stattdessen mit dem Erlernen von Java zu beginnen! Java und Big Data: Warum Big-Data-Projekte nicht ohne Java auskommen – 5
Kommentare
TO VIEW ALL COMMENTS OR TO MAKE A COMMENT,
GO TO FULL VERSION