Heibel-Ticker PLUS 24/30 - Hintergrundwissen zur KI-Revolution und zu Nvidia

» zurück zur Übersicht

26.07.2024:



Heibel-Ticker PLUS Börsenbrief

- Einfach einen Tick besser -

19. Jahrgang - Ausgabe 30 (26.07.2024)




Im heutigen Börsenbrief lesen Sie:

1.Info-Kicker: Hintergrundwissen zur KI-Revolution und zu Nvidia
2.So tickt die Börse: Künstliche Intelligenz: Megatrend der Zukunft
 - Ursprünge der Künstlichen Intelligenz: Neuronale Netze
 - High-End Grafikkarten für Spielecomputer
 - Verknüpfung vieler Grafikkarten zu einem virtuellen Server
 - Hardware & Software aufeinander abgestimmt
 - Training der KI mit Large Language Model
 - Inferencing – Individuelle Beantwortung von Fragen
 - Möglichkeiten der KI: Industrielle Revolution 2.0
 - Investitionen der KI-Branche
 - Anwendungen der KI im Bereich B2C
 - Wochenperformance der wichtigsten Indizes
3.Ausblick: Profiteure der KI-Revolution
 - Profiteur: Hardwareanbieter
 - Profiteur: Maschinenbauer
 - Der Wettbewerber: AMD
 - Partner von Nvidia
 - Bewertungsniveau
 - Gegenargumente der Skeptiker
4.Update beobachteter Werte: CEWE
 - CEWE: Kursrutsch zum Nachkauf nutzen & Marktkommentar
5.Leserfragen
6.Disclaimer / Haftungsausschluss und Risikohinweise
7.Mitgliedschaft verwalten



1. Info-Kicker: Hintergrundwissen zur KI-Revolution und zu Nvidia



Liebe Börsenfreunde,

Ihr Autor ist unterwegs, daher habe ich bereits im Vorfeld einen Artikel für Sie geschrieben, mit dem ich Ihnen die KI-Revolution näher bringen möchte: Als Anleger brauchen wir nicht die technischen Details der verschiedenen Prozessoren verstehen. Dennoch ist es hilfreich, ein Grundverständnis davon zu haben, was Nvidia so einmalig macht und warum Chat-GPT ein Durchbruch in der KI-Entwicklung war.

In Kapitel 2 beschreibe ich die Hintergründe und die wichtigsten Entwicklungsschritte der KI-Revolution. In Kapitel 4 betrachte ich dann die Wettbewerbssituation und die Wachstumsaussichten der Branche. Abschließend schaue ich mir die Bewertung von Nvidia an und zeige, wie Sie einschätzen können, ob die Aktie derzeit teuer oder billig ist.

Zum Wochenbeginn schrieb ich ein Update zu Cewe, in dem ich auch auf die aktuellen politischen Entwicklungen Bezug genommen habe.

Ein Leser schlug uns eine neue Anleihe von TUI vor, ich habe sie mir im Rahmen der Leserfrage angeschaut.

Nun wünsche ich eine anregende Lektüre,

heibel

take share, Ihr Börsenschreibel

Stephan Heibel

Chefredakteur und Herausgeber des Heibel-Ticker Börsenbriefs




2. So tickt die Börse: Künstliche Intelligenz: Megatrend der Zukunft



Nvidia ist zum wertvollsten börsennotierten Unternehmen der Welt aufgestiegen. Doch die Wenigsten haben wirklich verstanden, was Nvidia so einmalig macht. Ich verfolge Nvidia seit über 10 Jahren. 2018 haben wir Nvidia erstmals in unser Portfolio geholt und so konnte ich viele Entwicklungsschritte hautnah miterleben.


Ursprünge der Künstlichen Intelligenz: Neuronale Netze



Mein früherer IT-Softwareentwickler forschte gemeinsam mit Konrad Zuse, dem Erbauer des ersten Computers (Z1-Z4), in Sachen neuronaler Netze: Iterative Rechenprozesse so oft durchführen lassen und das Ergebnis kontrollieren, bis brauchbare Algorithmen zu guten Ergebnissen führen. Das war in den 1970ern.

Schon in den 1980ern gab es erste KI-Systeme, mit denen man kommunizieren konnte. Doch über „Wie geht es Dir”, „Gut, Danke der Nachfrage” ging es nicht wirklich hinaus. Fortschritte wurden erzielt, doch wirklich intelligent wurden die KI-Lösungen nicht.

Die Algorithmen, mit denen KI trainiert wird, wurden in den 1970ern und 1980ern entwickelt: Neuronale Netze führten damals Algorithmen unzählige Male durch, bis das Ergebnis näherungsweise korrekt war. Es wurden auf dieser Basis verschiedene Modelle entwickelt, auf deren Basis die KI "trainiert" wurde. Die Ergebnisse ließen erahnen, dass KI irgendwann einmal funktionieren werde, doch wirklich brauchbar war das Ganze damals noch nicht, denn es fehlten ausreichend Daten, die in überschaubarer Zeit zum Trainieren der KI verwendet werden konnten.

Die CPUs wurden immer leistungsfähiger, doch die spürbare Leistungssteigerung wurde immer geringer. Vielleicht haben die Älteren unter Ihnen auch bemerkt, dass man einen neuen PC nicht mehr alle zwei Jahre, sondern inzwischen viel seltener kaufen muss, um die gewünschten Anwendungen ausführen zu können. Immer das Gleiche zu tun, nur schneller, war nicht die Lösung.


High-End Grafikkarten für Spielecomputer



Semi Nvidia wurde im Jahr 1993 durch seinen heutigen CEO Jensen Huang gegründet. Zunächst wollte Huang Grafikkarten entwickeln, die bei Videospielen für bessere Bewegtbilder (Videos) sorgten. Sehr schnell entwickelte sich Nvidia zum High-End Anbieter von Grafikkarten für Spielecomputer …oder auch für Finanzmenschen wie mich, die am Laptop noch einen zweiten Monitor anschließen wollten. Das funktionierte vor 20 Jahren nur mit Nvidia-Grafikkarten.

Doch die Möglichkeiten, mit denen Grafikprozessoren (GPU) Bilder zu generieren, überstiegen schon bald die Leistungsfähigkeit der Prozessoren (CPU) im Computer. Das Problem: Die CPU, weil sie immer nur eine Aufgabe nach der anderen sequentiell abarbeiten kann, konnte Änderungen an verschiedenen Stellen im Bild nicht schnell genug berechnen und an die GPU übergeben, um ein ruckelfreies Videoerlebnis zu gewährleisten.

Bei der Bildbearbeitung könnte man jedoch verschiedene Algorithmen parallel laufen lassen. Das war mit einer CPU nicht möglich.

Nvidia ging einen neuen Weg und entwickelte die Graphik-Schnittstelle CUDA (Compute Unified Device Architecture), mit der Aufgaben aus der CPU an die GPU übertragen werden können. Arbeiten, die von der CPU nur sequentiell abgearbeitet wurden, konnten mit der GPU über die CUDA-Schnittstelle in unzählige Aufgaben aufgesplittet werden, die parallel, also gleichzeitig, abgearbeitet wurden und anschließend zu einem Ergebnis zusammengeführt werden. Der Algorithmus konnte "parallel" arbeiten. Gerade bei der Komplexität der KI war diese Entwicklung der entscheidende Quantensprung, wie wir später sehen werden.

Kurze Begriffserläuterung: Die CPU (Central Processing Unit) ist der zentrale Chip, der die Rechenleistung eines Computers definiert. Je schneller die CPU Aufgaben abarbeiten kann, desto leistungsfähiger der Rechner.

Um die Rechengeschwindigkeit noch weiter zu erhöhen, gibt es Rechner mit 2, mit 4, 8, 16 oder noch mehr CPUs, die parallel arbeiten und somit verschiedene Aufgaben übernehmen können. Doch damit können mehrere unterschiedliche Aufgaben parallel bearbeitet werden. Die Möglichkeit, eine Aufgabe in parallele Prozesse aufzusplittern, wie bspw. das Trainieren eines KI-Modells, bieten auch Rechner mit vielen CPUs nicht.

Die GPU (Graphics Processing Unit) war ursprünglich nur dazu da, die Rechenergebnisse der CPU auf einen Bildschirm zu schicken. Dank CUDA kann die GPU aber auch Rechenoperationen übernehmen, die CPU also entlasten.

Dank CUDA wurden die Grafikleistungen von Spielecomputern mit Nvidia-GPUs sprunghaft besser, Nvidia wurde zum unangefochtenen Platzhirsch.


Verknüpfung vieler Grafikkarten zu einem virtuellen Server



Nvidia-IBM
Abbildung 1: Nvidia ist das neue IBM


Während die Entwicklung in der CPU-Welt seit 1965 gemäß Moores Law jedes Jahr die Leistung (gemessen durch die Zahl der Transistoren) bei vergleichbaren Kosten verdoppelt, konnte mit Hilfe von CUDA und der GPU von Nvidia plötzlich ein Leistungssprung erzielt werden, der einer Vervielfachung, nahezu Verhundertfachung, entspricht.

Und laut Jensen Huang gilt Moores Law nun auch für die GPUs, deren Leistung sich ebenfalls jährlich verdoppeln werde.

Zum Verständnis: Die Verhundertfachung gelingt natürlich nur einmalig durch den Umstieg auf die neue Architektur mit CUDA. Von da an wird es die jährliche Verdopplung geben.

Jensen Huang, der in den USA bereits mit dem Allround-Talent des Mittelalters Leonardo Da Vinci verglichen wird, kam schon bald auf die Idee, seine neue Architektur auf die wohl komplexeste Aufgabe der IT-Welt loszulassen: Das Trainieren von Künstlicher Intelligenz (KI).

Es gab Supercomputer, die keine brauchbaren Ergebnisse für die KI lieferten. Was, wenn man mit Hilfe von CUDA ganze Rechenzentren zu einem großen KI-Rechner verknüpft?

Dazu benötigte man eine neue Software, die den Datenaustausch innerhalb eines Rechenzentrums organisierte. Im März 2019 wurde die Übernahme von Mellanox für 7 Mrd. USD verkündet. Intel hatte ebenfalls Interesse an Mellanox, doch Nvidia bot mehr.

Mellanox war im Bereich des „Big Data” unterwegs. Große Datenmengen in verteilten Datenbanken von Rechenzentren wurden zusammengeführt, um performante Auswertungen zu ermöglichen. Es ist eine sogenannte "fabless" Company, ein Unternehmen ohne eigene Produktionsstätte, die mit Patenten und Chip-Designs Geschäfte macht.

Damals boomten Echtzeitauswertungen. Amazon, Meta und Google werteten das Nutzerverhalten in Echtzeit aus, um möglichst schnell und individuell gezielte Werbung auszuliefern. Eine weitere Beschleunigung der Rechenleistung war da willkommen. Durch Auslagerung von Rechenoperationen auf GPUs (über CUDA) und die schnellere Verbindung von Servern kann die Aufgabenlast besser über die Serverfarm verteilt werden.

Mellanox aus Sunnyvale, Kalifornien, hat seine Zentrale gleich um die Ecke von Nvidia aus Santa Clara, Kalifornien. Die Übernahme gefiel den Anlegern, die Aktie sprang umgehend um 11% an. Doch es dauerte bis Dezember 2019, bis die EU diese Übernahme frei gab. China ließ sich sogar bis zum April 2020 Zeit. Da Alibaba und Baidu mit ihren Rechenzentren Kunden von Mellanox sind, wurde für die Übernahme das Okay Chinas benötigt.


Hardware & Software aufeinander abgestimmt



Nvidia-iPhoneRobot
Abbildung 2: Nvidias iPhone-Moment


Immer wieder wird Nvidia als die neue Intel beschrieben. Doch je besser ich die vielen Aktivitäten des Konzerns verstehe, desto mehr komme ich zu dem Schluss, dass ein Vergleich mit IBM viel besser passt. Intel hat die IBM-Technologie dezentralisiert, in die Wohnzimmer gebracht. Aber IBM war es, die zuvor durch die Kombination von leistungsfähiger Hardware und entsprechender Software neue Anwendungen überhaupt erst ermöglichte.

Nvidia hat eine komplett neue IT-Infrastruktur geschaffen. Das sequentielle Abarbeiten von Aufgaben, bei der ein herkömmlicher Prozessor in Ihrem PC sich 95% der Zeit langweilt, wird durch die parallele Bearbeitung komplexer Aufgaben abgelöst. Effizienzsteigerungen in der IT-Entwicklung wie vor 50 Jahren sind die Folge.

Im Frühjahr 2024 stellte Jensen Huang den neuen Prozessor namens Blackwell vor, der weniger eine Graphikkarte als vielmehr eine IT-Plattform darstellt. Die Rechenleistung seines Vorgängers, des Grace Hopper, wird verfünffacht (je nach Anwendungsfall), der Energieverbrauch wird verringert. Die Kosten von 30-40T€ seien geringer als allein schon die Kosten für die Verkabelung, die notwendig sei, die bisher leistungsstärksten Chips für eine vergleichbare Leistung zu verknüpfen. Blackwell hingegen hat keine Kabel, sondern alle Verknüpfungen befinden sich auf dem Chip.

Unter Grace Hopper gab es die GPUs H100 und H200, wobei die H200 schneller getaktet wurde. Die neuen GPUs kommen äquivalent als B100 und B200 auf den Markt. Der Preis einer einzelnen GPU beläuft sich weiterhin auf 30-40.000 USD.


Training der KI mit Large Language Model



Ende 2022 wurde ChatGPT 3.0 der Öffentlichkeit zugänglich gemacht und die Resonanz war überwältigend. Kurze Zeit später kam schon Chat GPT 4.0. Es gibt eine kritische Masse an Daten, die erforderlich ist, um eine KI zu trainieren, damit die Large Language Models (LLMs) sinnvolle Antworten geben können. Offensichtlich hatte man erstmals die für brauchbare KI-Ergebnisse kritische Masse an Daten in einer überschaubaren Zeit fürs Training verwenden können. Erstmals konnte berechnet werden, wie viele Daten wie intensiv fürs Training verwendet werden müssen, um brauchbare KI-Ergebnisse zu erhalten.

Je mehr Daten für das Trainieren der KI zur Verfügung stehen, desto besser das Ergebnis. Doch mit der Zunahme der Datenmenge wächst die erforderliche Zeit für das Training exponentiell an.

Nvidia stellte Anfang 2023 die Grace Hopper GPUs H100 und H200 vor, mit denen mit einer ausreichenden Datenmenge binnen 6-9 Monaten eine brauchbare KI trainiert werden konnte. Mit Blackwells GPUs B100 und B200 kann diese Zeit auf 6-8 Wochen reduziert werden. Das spart nicht nur Zeit, sondern auch Stromkosten.

Wer die ausreichende Menge an Daten hat, der kauft nun so viele Nvidia-Graphikkarten, wie er kriegen kann. Meta, Amazon, Tesla, Alphabet, Microsoft, Oracle, ... auch SAP. KI-Angebote schießen aus dem Boden: Bildbearbeitung, Stimmenmodifikation, Entwicklertools etc. Die Blackwell GPUs sind so leistungsstark, dass nun auch Videos in großen Mengen für das Training der KI verwendet werden können.


Inferencing – Individuelle Beantwortung von Fragen



Ein fertig trainiertes KI-Modell ist wie ein kleines, hochintelligentes Kind. Das Gehirn ist bereits ausgebildet, doch es muss noch lernen, damit umzugehen. Die Anwendung des intelligenten Gehirns, also der KI, nennt man dann „inferencing” (Schlussfolgern). Für individuelle Fragen werden über das trainierte KI-Modell individuelle Antworten gefunden.

Auch für die Schlussfolgerungen des KI-Modells werden schnelle GPUs benötigt, um individuelle Fragen schnell zu beantworten. Doch diese GPUs müssen nicht so stark optimiert sein wie die Infrastruktur, die von Nvidia für das Trainieren zur Verfügung gestellt wird. Ob die Antwort nach 0,01 Sekunden oder nach 0,02 Sekunden zur Verfügung gestellt wird, wirkt sich kaum auf die gefühlte Performance der Nutzer aus.


Möglichkeiten der KI: Industrielle Revolution 2.0



Nvidia-Tor
Abbildung 3: Das Tor zur KI-Zukunft


Eingabemedien wie Tastatur und Maus werden schon bald der Vergangenheit angehören. Sie sind eine vorübergehende Erscheinung der Evolution. Schon heute sind Schreibmaschinen nur noch in Antiquitätengeschäften verfügbar. Künftig wird man einfach mit der KI sprechen.

Für das autonome Fahren müssen eine Vielzahl von Daten in Echtzeit ausgewertet und auf Basis eines zuvor trainierten KI-Modells für Prognosen verwendet werden. In diesem Bereich werden noch für das laufende Jahr große Entwicklungssprünge erwartet.

Die Pharma-Forschung gerät immer wieder aufgrund der Komplexität des menschlichen Organismus an ihre Grenzen. Nicht selten werden bahnbrechende Neuentwicklungen durch einen Zufall erzielt (bspw. auch GLP-1). Mit Hilfe der KI kann man viel schneller die Funktion einzelner Proteine verstehen und ggfls. neue Proteine gezielt entwickeln.

Der Wetterbericht kann heute auf rund 2 Km genau erstellt werden, Dank der gestiegenen Rechenleistung kann künftig eine Genauigkeit von 200 Metern erreicht werden. Zudem können Verwirbelungen großer Bäume oder auch von Gebäuden berücksichtigt werden.

Nicht zuletzt kann die Weiterentwicklung der KI durch die KI verbessert und beschleunigt werden. Sowohl im Chip-Design, als auch bei den KI-Modellen verspricht man sich durch die Fähigkeit der KI, komplexe Strukturen zu optimieren, große Fortschritte. Ja, das läuft darauf hinaus, dass Roboter Roboter bauen oder neue Fertigungsanlagen von der KI geplant werden.

Vor diesem Hintergrund handelt es sich nicht nur um eine Entwicklung, die uns effizienter macht, wie bspw. die Computerindustrie vor 50 Jahren. Vielmehr handelt es sich um eine Revolution, die unsere Arbeits- und Lebensweise vollständig neu definieren wird. Eine Umstellung, die ich daher eher mit der Industriellen Revolution vergleichen möchte.


Investitionen der KI-Branche



Doch schauen wir nochmal auf die Gegenwart. Hier ein paar Zahlen, damit Sie die Dimension besser erfassen können, über die wir hier sprechen: Bislang größter Kunde von Nvidia ist Meta. Mark Zuckerberg kaufte 24.000 H100 GPUs von Nvidia, um seine ausgelieferte Werbung und seine Vorschläge auf Facebook und insbesondere Instagram zu verbessern. Er nutzt KI-Modelle, die das Vorschlagswesen optimieren. Seit einigen Quartalen liefert Meta kontinuierlich bessere Zahlen ab als von Analysten erwartet. Die Aktie hat sich seit der Chat GPT Einführung mehr als vervierfacht.

Eine H100 GPU kostet rund 40.000 USD. Meta hat 24.000 davon gekauft. Also hat allein Meta knapp 1 Mrd. USD an Nvidia überwiesen, um die erforderliche Hardware für KI-Modelle zu bekommen.

Im Frühjahr wurde bekannt, dass Tesla bereits 35.000 H100 GPUs gekauft hat. Das sind 1,4 Mrd. USD. Das Geschäft mit der Automobilbranche werde für Nvidia laut Jensen Huang im laufenden Jahr ein Umsatz von 1,4 Mrd. USD erwirtschaften. Für das kommende Jahr erwarte er eine Umsatzverdopplung. Und mittelfristig werde die Automobilbranche zum wichtigsten Kunden von Nvidia heranwachsen, so Huang.

Wenn allein Tesla schon für 1,4 Mrd. USD Umsatz verantwortlich ist, dann hört sich diese Prognose von Jensen Huang sehr konservativ an, oder?

Nicht jedes Unternehmen kann sich die Investition in die Nvidia-Chips leisten. Doch jedes Unternehmen hat unzählige unternehmenseigene Daten, aus denen man gerne die besten Interpretationen ableiten möchte. Und natürlich dürfen die Ergebnisse nicht für die Konkurrenz verfügbar sein, daher muss eine eigene KI her.

Das Trainieren einer eigenen KI auf gemieteten KI-Rechenzentren wird ein neuer Zukunftsmarkt. Es fällt nicht schwer, sich vorzustellen, dass die Anbieter einer solchen Dienstleistung heute schon jeden Nvidia-Chip kaufen, den sie bekommen können. Amazon, Oracle, Dell und auch Snowflake investieren stark in den Ausbau ihrer KI-Rechenzentren.

Naja, und dann sind da noch die Staaten, die ihre eigenen Daten mit einer leistungsfähigen KI auswerten möchten. Staaten werden sich nicht auf gemietete KI-Rechenzentren verlassen, sondern lieber eigene Rechenzentren aufbauen. Das kann zwar etwas träge starten, doch dürfte der Absatz von Nvidia-Chips auf absehbare Zeit nur durch die Verfügbarkeit gebremst werden, nicht durch die Nachfrage.


Anwendungen der KI im Bereich B2C



Die Nutzung der KI seitens der Endverbraucher (B2C – Business zu Consumer) steckt noch in den Kinderschuhen, doch einige brauchbare Angebote gibt es schon.

Chat GPT würde ich als derzeit führende KI bezeichnen, die ein breites Spektrum an Fragen beantworten kann. Midjourney würde ich als führende KI bezeichnen, die Bilder nach den individuell formulierten Wünschen seiner Kunden malt. Die Bilder, die wir für unsere Finanzblogartikel und Twitter Nachrichten verwenden, sind meistens mit Midjourney erstellt.

Midjourney ist die freie Variante von Firefly, einem ähnlichen KI-Dienst von Adobe, der in die Creative Cloud von Adobe integriert wurde. Damit gehört Adobe zu den ersten Unternehmen, das KI-Anwendung in ein bestehendes Kundenprodukt integrierte. Neben Microsoft, das mit CoPilot sein Office Paket bereits um eine KI ergänzte.

Apple geht einen anderen Weg. Die KI wird tief ins Betriebssystem integriert und macht viele Apps und Anwendungen intelligenter, ohne auf einen griffigen Namen zu hören. Okay, man wandelt den englischen Begriff für KI, nämlich AI - Artificial Intelligence – in Apple Intelligence ab. Doch dabei setzt Apple zunächst auf die KI namens Gemini von Alphabet. Die Entscheidung Apples ist ein Ritterschlag für Alphabet, denn Apple wird sich seinen Partner wohlbedacht ausgesucht haben.

Warum Apple dies nicht selbst tut, ist natürlich fraglich. Vielleicht, weil sich CEO Tim Cook auf die Wurzeln seines Konzerns besinnt, der eben doch nur ein Hardware-Lieferant ist und kein Softwareunternehmen. Aber vielleicht muss Tim Cook auch einfach nur Zeit gewinnen, ist selbst noch nicht so weit und nimmt daher vorübergehend einen Dienstleister an Bord. Immerhin hat Apple auch über viele Jahre die Suchmaschinenlogik von Google genutzt und Google hat gut daran verdient.

Alphabet selbst bietet Gemini als KI-Dienst an. Nach einem Fehlstart im Jahr 2023 stand die KI von Alphabet in der Kritik. Inzwischen scheinen die schlimmsten Kinderkrankheiten ausgestanden.

Doch das ist nur der Anfang. Derzeit warten rund 50 KI-Unternehmen mit einer Marktkapitalisierung von jeweils mehreren hundert Mio. USD auf ihren Börsengang. Vielleicht gibt es ein paar Parallelen zur Internetblase 2000. Aber warten wir mal ab. Noch befinden wir uns dieser Analogie zufolge noch im Jahr 1998, haben also noch ein wenig Zeit, an einem möglichen Börsenhype zu partizipieren.

Wochenperformance der wichtigsten Indizes



entfällt







3. Ausblick: Profiteure der KI-Revolution



AMD ist der einzige Wettbewerber von Nvidia, ich gehe im nächsten Kapitel näher darauf ein. In allen anderen Unternehmen, die ich mir angeschaut habe, sehe ich derzeit eher Partner von Nvidia und keine Wettbewerber.

Es gibt Entwickler von Hardware, die für KI-Rechenzentren benötigt wird und natürlich auch die Unternehmen, die die Maschinen für die Chiphersteller anbieten. Es gibt Unternehmen, die KI-Rechenzentren für die eigene Nutzung oder auch für die Nutzung durch Dritte bauen. Und es gibt Unternehmen, die KI-Modelle trainiert haben und nun Endkunden zur Verfügung stellen. Viele Unternehmen sind in mehreren dieser drei Bereiche unterwegs.

Schon heute gibt es eigentlich kein Unternehmen mehr, dass von sich behauptet, sich NICHT mit KI zu beschäftigen. Daher könnte ich nun eine Liste aller Unternehmen folgen lassen ;-) Doch das ist nicht zielführend. Schauen wir uns also mal die Unternehmen an, die in der Anlegerwelt am stärksten diskutiert werden.

Profiteur: Hardwareanbieter



Broadcom entwickelt spezialisierte ASICs (Application-Specific Integrated Circuits) und Hochgeschwindigkeits-Netzwerkschalter für KI-Infrastrukturen. Das Unternehmen hat bedeutende Verträge mit großen Technologieunternehmen wie Google und Meta abgeschlossen, um maßgeschneiderte AI-Chips zu liefern.

Zudem bietet Broadcom 800GB-Netzwerkschalter mit einem Marktanteil von etwa 60% in diesem Segment. Und kürzlich wurde VMWare übernommen, das führende Unternehmen im Bereich der virtuellen Netzwerkinfrastruktur für KI-Rechenzentren.

Micron hat kürzlich die nächste Generation seines GDDR7-Grafikspeichers vorgestellt, der hohe Bitdichten und eine Bandbreite von mehr als 1,5 TB/s bietet. Diese Technologie optimiert KI-, Gaming- und Hochleistungsrechenanwendungen durch schnellere Antwortzeiten und geringere Verarbeitungslatenzen.

Außerdem liefert Micron mit dem 24GB 8H HBM3E für die NVIDIA H200 Tensor Core GPUs Speicherchips, die für die Verarbeitung großer Datenmengen in KI-Anwendungen konzipiert sind.

Arista bietet spezialisierte Netzwerkplattformen (Etherlink AI Plattformen), die für große AI-Cluster optimiert sind: 800GB-Netzwerkschalter (siehe Broadcom), die speziell für AI- und Machine Learning (ML) Anwendungen entwickelt wurden.

Coherent entwickelt photonische Technologien, optischen Netzwerkschalter, die für Hochgeschwindigkeits-Datenkommunikation in Rechenzentren genutzt werden. Es werden die wesentlichen Protokolle wie Ethernet und NVLink von NVIDIA unterstützt. Das Unternehmen plant die Einführung von 1.6TB Netzwerkschaltern. Optische Schalter sind schneller, zuverlässiger und verbrauchen weniger Strom.

Super Micro bietet mit flüssiggekühlten AI SuperClustern hochgradig skalierbare Rechenzentrumslösungen. Die sogenannten Rack-Scale-Systeme, die in Zusammenarbeit mit NVIDIA entwickelt wurden, nutzen die neuesten GPUs und bieten eine effiziente Kühlung für große Rechenkapazitäten.

Dell bietet aktuell die besten Rechenzentren. Jensen Huang nennt Michael Dell als bevorzugten Partner, wenn es um den Bau von Rechenzentren geht. Dell hat sich voll auf die Ausstattung von Rechenzentren mit Nvidia-Technologie konzentriert.


Profiteur: Maschinenbauer



Es ist absehbar, dass die Fertigungskapazitäten ausgebaut werden müssen. Daher profitieren auch die Aktien der Maschinenbauer bereits jetzt vom KI-Boom: Applied Materials, Lam Research und KLA Tencor sind führend in diesem Bereich. In Deutschland profitieren Infineon, Elmos, Süss Microtech davon. Bei PVA Tepla warten wir noch auf Großaufträge.

Jensen Huang reihte sich selbst in die Liste derer ein, die im B2B-Bereich Lösungen anbieten … und nutzen: Bei der Chipentwicklung nutze man die KI intensiv, um eine Fertigungsanlage bereits während der Chip-Entwicklung zu konzipieren und als digitalen Zwilling (siehe Siemens im nächsten Abschnitt) herzustellen. Die Bauzeit für eine neue Chipfabrik kann dadurch halbiert werden.

Anbieter der KI-Infrastruktur im B2B-Bereich

Oracle stellt die KI-Cloud zur Verfügung, auf der OpenAI ChatGPT entwickelt. Die KI-Cloud wird derzeit insbesondere für den Pharma-Bereich weiterentwickelt, da Oracle in diesem Bereich besonders hohes Wachstum erwartet.

ServiceNow bietet in Zusammenarbeit mit Microsofts CoPilot die KI-gestützte Automatisierung von Arbeitsabläufen im IT-Umfeld von großen Unternehmen an. Außerdem wird gemeinsam mit Fujitsu der Kundensupport mit Hilfe der KI weiter automatisiert.

SAP verfügt über den größten Datenschatz unserer Wirtschaft weltweit, da SAP-Software quasi der Standard bei Unternehmenssoftware ist. Mit Hilfe von SAP kann die KI dahingehend trainiert werden, komplexe Zusammenhänge zu erkennen. SAP bietet eine KI an, mit der Unternehmen bessere Analysen zum eigenen Unternehmen erstellen können.

Siemens unterstützt digitale Zwillinge, die beispielsweise bei einem im Bau befindlichen Containerschiff frühzeitig auf Probleme hinweisen können. Die betroffenen Abteilungen können so frühzeitig und gemeinschaftlich Probleme beheben. Reibungsverluste zwischen verschiedenen Abteilungen, Zeitverluste und andere Ineffizienzen werden dadurch stark vermindert.

Im Rahmen einer Analystenkonferenz äußerte sich Jensen Huang zu Tesla: Kein anderes Unternehmen sei so weit bei der Entwicklung des autonomen Fahrens wie Tesla, noch im laufenden Jahr werde man atemberaubende Ergebnisse von Tesla sehen.

Sie erinnern sich: Tesla ist der Autobauer, der früher mal beliebt war unter Anlegern. Doch seit zweieinhalb Jahren hat sich der Kurs mehr als halbiert, weil das autonome Fahren doch nicht so schnell kommt, wie von Elon Musk in Aussicht gestellt. Ist nun der Zeitpunkt gekommen? Jensen Huang wird schon fast wie ein Prophet verehrt und tatsächlich hat sich der Kurs von Tesla seit Jensen Huangs Bemerkung mehr als verdoppelt. Wenn er Tesla hervorhebt, dann sollten wir das Unternehmen im Auge behalten.

Meta hat massiv in die KI investiert, um große Sprachmodelle wie LLaMA zu entwickeln und zu trainieren. Die Modelle werden zur Generierung von Inhalten für Facebook und Instagram genutzt, sowie auch dafür, das Empfehlungsmanagement zu verbessern.

Salesforce integriert seine eigene KI namens Einstein in das Angebot und macht so KI-Funktionen für seine Kunden nutzbar.


Der Wettbewerber: AMD



In einigen Berichten zu Nvidia habe ich gelesen, dass Nvidia-Chips demnächst Konkurrenz erhalten werden. Das ist richtig, aber nur von AMD. Und AMD hinkt deutlich hinterher, sowohl in Sachen Geschwindigkeit als auch insbesondere in Sachen Stromverbrauch, was bei den Rechenleistungen zu einem nennenswerten Kostenfaktor wird.

Die Basis für KI-Anwendungen ist, dass zuvor eine KI trainiert wurde. Und das Training dauert derzeit 9 Monate (künftig 6-8 Wochen) und läuft über Nvidia-Chips. An der Geschwindigkeit wird sich noch einiges tun, doch bis wir da bei Zeiten von wenigen Tagen angelangt sind, dürfte Nvidia nicht vom Thron zu stoßen sein. Denn Zeit ist Geld und kaum ein Unternehmen kann es sich leisten, dem Wettbewerb mit seiner KI hinterherzuhinken, nur weil man ein wenig Geld sparen möchte ...

... wenn man durch den Wechsel auf AMD überhaupt Geld spart. Denn je länger der Prozess dauert, desto höher die Stromkosten. Da wird ein Teil des Kostenvorteils also schon wieder aufgebraucht. Derzeit werden AMD-Chips nur deswegen so stark nachgefragt, weil es nicht ausreichend Nvidia-Chips gibt.

GPUs von AMD können jedoch nicht CUDA nutzen. CUDA (Compute Unified Device Architecture) ist eine proprietäre Parallel-Computing-Plattform von NVIDIA und läuft nur auf NVIDIA-GPUs (siehe oben). Stattdessen nutzen AMD-GPUs ein eigenes System namens ROCm (Radeon Open Compute), das ähnlich wie CUDA funktioniert, aber speziell für AMD-Hardware entwickelt wurde.

ROCm unterstützt verschiedene Programmiersprachen und Bibliotheken, die für das Hochleistungsrechnen und maschinelles Lernen verwendet werden, einschließlich HIP (Heterogeneous-Compute Interface for Portability), das entwickelt wurde, um die Portabilität von CUDA-Anwendungen zu ermöglichen. Mit HIP können Entwickler ihre bestehenden CUDA-Codebasen relativ einfach auf AMD-GPUs portieren. Doch die Notwendigkeit, HIP anzubieten, deutet darauf hin, dass CUDA der Branchenstandard ist.

Wenn Sie über AMD als Wettbewerber lesen, sollten Sie darauf achten, ob der Autor die Kosten der GPUs miteinander vergleicht, oder aber die Gesamtkosten und Zeit für die Entwicklung eines KI-Modells betrachtet. Bei letzterer Betrachtung hat Nvidia meinen Quellen zufolge einen Vorsprung von mindestens einem Jahr.


Partner von Nvidia



Immer wieder wird berichtet, dass große Unternehmen wie Google, Amazon, Microsoft, Apple, Tesla, etc. eigene KI-Chips entwickeln. Vorschnell wird behauptet, dass Nvidia von diesen Unternehmen das Wasser abgegraben werden könnte.

Dabei wird übersehen, dass diese Chips nur für das Inferencing, also für die individuellen Schlussfolgerungen auf Basis der über Monate auf Nvidia-GPUs entwickelten KI-Modelle verwendet werden. Je mehr KI-Chips dieser Art entwickelt werden, desto populärer werden KI-Modelle und desto mehr Nvidia-GPUs werden benötigt, um die KI-Modelle zu trainieren. Diese Unternehmen sind daher Partner und nicht Wettbewerber von Nvidia.

Diese KI-GPUs werden künftig in allen Endgeräten eingesetzt werden: In Computern, Smartphones und Tablets. Micron spricht von einem Generationswechsel bei Laptops und Tischrechnern. Nitto Denko spricht vom Einsatz solcher Chips in autonom fahrenden Autos. Bei all diesen GPUs geht es um GPUs, die für das Inferencing (Schlussfolgern) optimiert sind.


Bewertungsniveau



Inzwischen weiß doch jeder Anleger, dass KI = Nvidia ist: Kein anderes Unternehmen ist so eng mit der KI-Revolution verknüpft wie Nvidia. Entsprechend hoch sind die Erwartungen an das Wachstum: Umsatzverdopplung, Gewinnvervierfachung etc. Und diese exorbitant hohen Erwartungen zeigen sich in der exorbitant hohen Bewertung der Aktie: Das KGV steht bei 37.

Ein KGV über 20 gilt als sehr hoch. Um es ins Verhältnis zu setzen, vergleicht man es mit der Wachstumsgeschwindigkeit des Gewinns. Die Relation sollte bei 1 liegen. Wenn also das KGV bei 37 steht, sollte der Gewinn mit mindestens 37% wachsen.

Nun, der Gewinn von Nvidia ist im abgelaufenen Quartal um 461% angesprungen. Einmal mehr zeigt Nvidia damit, dass die vermeintlich hohe Bewertung noch immer viel zu niedrig ist. Doch wie sieht es mit der Zukunft aus?

Für das aktuelle Geschäftsjahr, das bei Nvidia bis zum 31.01.2025 läuft, erwarten Analysten einen Gewinnsprung je Aktie von 120% auf 2,65 USD. Das entspricht einem KGV von 39. Wenngleich das KGV von 39 also erneut recht teuer aussieht, relativiert sich diese Kennziffer schnell, wenn wir sie ins Verhältnis zum Wachstum setzen. Das KGV/ Wachstum, auch PEG-Ratio genannt, beträgt also 0,3. Nvidia ist nach wie vor günstig.

Zum Jahresbeginn, also vor einem halben Jahr, erwarteten Analysten für das laufende Geschäftsjahr einen Gewinn von 2,08 USD/Aktie. Die Gewinnerwartung wurde also binnen weniger Monate um 27% angehoben. Und dennoch konnte Nvidia diese Erwartungen übertreffen.

Für das darauffolgende Geschäftsjahr erwarten Analysten einen Gewinnanstieg um "nur noch" 30% auf 3,43 USD/Aktie. Das KGV stünde dann bei 30, die PEG-Ratio wäre bei einer fairen 1. Spätestens jetzt winken die Skeptiker ab und sagen, die Aktie hat ihre maximale Bewertung erreicht und muss nun erst einmal in diese Bewertung hineinwachsen.

Das wäre richtig, wenn das Wachstum im Anschluss unter 10% fällt. Doch schon die aktuellen Erwartungen von durchschnittlich 30% Gewinnwachstum für 2025 erscheinen viel zu konservativ (= niedrig). Analysten heben ihre Erwartungen für Nvidia seit Jahren kontinuierlich an. Und wenn wir nun mal mit dem Zahlenreigen aufhören und uns die Aussagen von CEO Jensen Huang anschauen, dann deutet vieles darauf hin, dass dies auch noch lange so bleiben wird.

Denn Nvidia wird laut Jensen Huang jährlich eine neue Generation an Graphikchips (GPUs) vorstellen, die jeweils gigantische Sprünge in der Leistungsfähigkeit mit sich bringen.


Gegenargumente der Skeptiker



Chancen Nun kommen die Skeptiker auf den Plan: 1. Nvidia könne den Abstand zu seinen Verfolgern, insbesondere zu AMD, nicht halten. 2. Außerdem würden inzwischen alle großen Konzerne ihre eigenen KI-Chips entwickeln. Und überhaupt sei Nvidia 3. bereits viel zu hoch bewertet.

Nun, die Antworten für diese Skeptiker haben wir in diesem Bericht bereits gegeben.

Zu 1.: Nvidia ist AMD um mindestens ein Jahr voraus. Die Gesamtkosten für die Entwicklung eines neuen KI-Modells sind mit Nvidia-Chips deutlich geringer als mit AMD-Chips. Außerdem arbeiten derzeit 4,7 Millionen Entwickler weltweit auf CUDA, die Zahl der Entwickler auf der AMD-Schnittstelle ist deutlich kleiner.

Zu 2.: Die KI-Chips, die von Amazon, Alphabet, Microsoft und vielen anderen Mega-Techs entwickelt werden, sind für das Schlussfolgern (Inferencing) optimiert, nicht für das Trainieren. Mit Schlussfolgern meint man die Anwendung des trainierten KI-Modells für den beabsichtigten Zweck. Diese Schlussfolgerung ist ebenfalls sehr rechenintensiv und es ist vorteilhaft, spezielle Chips für diese Anwendung zu optimieren.

Nvidia-Blase
Abbildung 4: Befindet sich Nvidia in einer Bewertungsblase?


Zu 3.: Aktien guter Unternehmen sind immer hoch bewertet. Es zeichnet gute Unternehmen aus, die Erwartungen, auf deren Basis die Bewertungsmodelle der Aktie erstellt werden, zu übertreffen und somit nachträglich zu beweisen, dass die Bewertung eben doch nicht so hoch war. Wenn Sie bei Nvidia auf eine „günstige” Bewertung warten, werden Sie vermutlich dann kaufen, wenn der KI-Boom eine Pause einlegt und Sie riskieren, dass die Aktie dann deutlich nach unten geht.


Ein viertes Gegenargument möchte ich nicht unerwähnt lassen: KI ist gefährlich.

KI-Bedrohung
Abbildung 5: KI: Die dunkle Bedrohung


Meine Antwort darauf: Das ist richtig. Um so wichtiger ist es, dass wir mit unseren moralischen Vorstellungen führend in der Entwicklung der KI sind. Wer sich damit beschäftigt, die KI-Entwicklung zu bremsen, wird damit nur erreichen, dass sein Einfluss auf die praktische Ausgestaltung der KI in der Zukunft immer kleiner wird. Es führt kein Weg daran vorbei, wir müssen uns intensiv mit der KI beschäftigen und wichtige Entwicklungen möglichst selbst anführen.



4. Update beobachteter Werte: CEWE



Im Wochenverlauf habe ich Updates zu unseren Portfolio-Titeln verfasst. Diese erhalten Sie nachfolgend zusammen aufgeführt.

Die Updates finden Sie generell jeweils nach der Veröffentlichung verfügbar unter Heibel-Ticker -> Portfolio -> 10 neueste Einträge und mit der Express-Funktion erhalten Sie die Updates direkt unterwöchig per E-Mail und SMS.

==========


CEWE: Kursrutsch zum Nachkauf nutzen & Marktkommentar



Di, 23. Juli um 15:07 Uhr
VORAB: Es ist Sommer und ich stelle um auf Sommertelegramm. Die Freitagsausgaben werden weniger aktuell, dafür melde ich mich sporadisch, wenn es etwas zu berichten gibt. So habe ich im Anschluss an das CEWE-Update in diese E-Mail noch einen aktuellen Marktkommentar zu Kamala Harris angefügt. Übrigens: Für Freitag habe ich eine ausführliche Analyse zu Nvidia und der KI-Revolution vorbereitet.

Cewe fiel in den vergangenen 5 Wochen um 14%. Wir hatten Anfang April einen Teil unserer Dividendenposition verkauft, Gewinne mitgenommen und Cash generiert. Nun ist es an der Zeit, diese Dividendenposition wieder voll zu machen.

Der Kurs ist auf 96 EUR gefallen und es sieht so aus, als würde hier ein Boden gefunden. 2,8% Dividendenrendite ist für Cewe sehr attraktiv, da die Dividende jährlich angehoben wird. Nach dem Sommer wird der Blick wieder auf das Weihnachtsgeschäft gerichtet. Das Weihnachtsgeschäft hängt stark ab vom Sommerurlaub: Wenn die Menschen viel gereist sind, schenken sie den Großeltern zu Weihnachten ein schönes Photobuch mit Reisefotos.

Bei aller wirtschaftlicher Schwarzmalerei, an den Urlaubsreisen sparen die Menschen nicht: Die Corona-Pandemie hat gezeigt, wie dankbar wir sein müssen, unbeschwert verreisen zu können. Ich gehe davon aus, dass das Reisegeschäft dieses Jahr gut ist und entsprechend erwarte ich für Cewe wieder ein ordentliches Weihnachtsgeschäft.


Lassen Sie mich noch ein paar allgemeine Bemerkungen zum gar nicht so überraschenden Verzicht Joe Bidens machen und zu Kamala Harris, die sich nun anschickt, ins Rennen um die US-Präsidentschaft einzusteigen.

Joe Biden war der größte Wahlhelfer von Donald Trump. Ich habe Ihnen bereits vor 4 Wochen angekündigt, dass Joe Biden diese Wahl nicht durchziehen kann. Nun ist es tatsächlich so gekommen und zu allererst bedeutet dies, dass Donald Trump KEINEN Erdrutschsieg erzielen wird.

Je mehr demokratische Unterstützer Joe Biden ihre Unterstützung entzogen, desto größer wurde die Angst vor einem Erdrutschsieg Trumps. Ein Wahlsieg, der nicht nur Donald Trump ins Weiße Haus befördert hätte, sondern vermutlich die Mehrheit sowohl im Repräsentantenhaus als auch im Senat zugunsten der Republikaner verschoben hätte.

Mit der absoluten Mehrheit in beiden Häusern hätte Donald Trump freie Hand gehabt, seine Ziele umzusetzen. Davor hatten insbesondere die Tech Giganten Angst, aber auch viele andere Branchen und Unternehmen fürchten die Unberechenbarkeit Trumps.

Eines haben Trump & Biden gemeinsam: Beide gehen konsequent gegen die Tech Giganten vor. Bei Joe Biden habe ich den Eindruck, dass er sich einfach nicht für sie interessiert. Bei Donald Trump ist es Programm, die kleinen und mittelständischen Unternehmen zu fördern, die auf America First setzen - und das sind nicht die international aufgestellten Konzerne.

Kamala Harris kommt aus Kalifornien. Sie wuchs mit den Tech Giganten auf. Bislang ist nicht viel über ihre Ziele bekannt. Man weiß nur, dass sie die Politik Joe Bidens unterstützte. Einen großen Kurswechsel brauchen wir also nicht zu fürchten.

Aber eine interessante Information habe ich gefunden: Ihr Ehepartner hat ein starkes Interesse am Aktienmarkt. Ich weiß nicht, ob Joe Biden überhaupt über dessen Existenz informiert wurde, die Existenz des Aktienmarktes meine ich. Aber die Tatsache, dass der Ehepartner täglich mit seinen Kindern die aktuellen Entwicklungen am Aktienmarkt bespricht, zumindest behauptet er das, lässt hoffen, dass in der Familie ein gewisses wirtschaftliches Grundverständnis vorhanden ist.

Eine Familie aus Kalifornien, die mit den Internetkonzernen groß geworden ist, dürfte also wesentlich konstruktiver mit der Wirtschaft umgehen.

Damit holt Kamala Harris gegen Donald Trump im Vergleich zu ihrem Vorgänger Joe Biden deutlich auf. Und das ist eigentlich schon alles, was sich die Börsianer erträumen: Ein Gleichgewicht.

Wer nun am Ende das Rennen macht, ist Vielen egal. Hauptsache es wird ein knappes Ergebnis, damit nicht die eine oder andere Partei die Mehrheit in beiden Häusern gewinnt. Denn nur so ist gewährleistet, dass die größten Änderungsversprechen der beiden Kandidaten gestoppt werden. Und, die alten Hasen unter Ihnen wissen das, nichts mag man an der Börse mehr als einen handlungsunfähigen Staat.

Nachdem also in den vergangenen Wochen der „Trump-Trade“ lief, eine Rotation aus den Tech Giganten in die zweite Reihe, wird diese Rotation nun zum Teil wieder rückgängig gemacht. Ich gehe davon aus, dass diese Entwicklung unterm Strich positiv von den Aktienmärkten aufgenommen wird.

Alle Updates zu CEWE



5. Leserfragen





TUI Wandelanleihe als Spekulation


Hallo Herr Heibel,
vielen Dank für den wie immer informativen Börsenbrief.

In einer Leserfrage haben Sie auch TUI angesprochen.

Wahrscheinlich wissen Sie es auch schon, aber zur Vorsicht sende ich Ihnen die Info nochmals zu.

TUI gibt momentan eine Wandelanleihe aus, die lediglich mit 1,95% verzinst wird und einen Wandlungspreis von 9,60 Eur (also rund 50% über dem aktuellen Preis) hat.
Damit soll der KFW-Kredit (teilweise?) abgelöst werden.

Zumindest dürften damit die Zinszahlungen bei TUI sinken, denn der KFW-Kredit hat meines Wissens einen deutlich höheren Satz.

Allerdings werden damit auch Erinnerungen an die vielen Kapitalerhöhungen der TUI wach und die Aktie sinkt heute kräftig…

Trotzdem könnte die Aktie (vielleicht) eine Spekulation wert sein…

WANDELANLEIHE
Juli 2024 bis Juli 2028
Zins: 1,95%
Wandlungsprozess: 9,60 EUR
Stückelung: 100.000EUR

Mit freundlichen Grüßen, Thomas aus Saarlouis

ANTWORT
Vielen Dank, kannte ich noch nicht: Klingt interessant, denn, wenn TUI wieder auf die Beine kommt, dürfte die Aktie in 4 Jahren deutlich mehr als 50% steigen. Sollte es hingegen nicht klappen, bleiben 2% Verzinsung p.a. auf 4 Jahre.

Als Ergänzung zu meiner Bewertung der TUI Aktie vor einer Woche (siehe Heibel-Ticker #24/29) wäre das also ein gutes Instrument, um das Risiko der Spekulation überschaubar zu halten.

Leider ist die Stückelung von 100.000 EUR so groß, dass diese Wandelanleihe für die meisten Privatanleger als Spekulation ungeeignet ist.



6. Disclaimer / Haftungsausschluss und Risikohinweise



Wer un- oder überpersönliche Schreib- oder Redeweisen nachmacht oder verfälscht oder nachgemachte oder verfälschte un- oder überpersönliche Schreib- oder Redeweisen in Umlauf setzt, wird mit Lust-, manchmal auch mit Erkenntnisgewinn belohnt; und wenn alles gut geht, fällt davon sogar etwas für Sie ab. (frei nach Robert Gernhardt)

Wir recherchieren sorgfältig und richten uns selber nach unseren Anlageideen. Für unsere eigenen Transaktionen befolgen wir Compliance Regeln, die auf unsere eigene Initiative von der BaFin abgesegnet wurden. Dennoch müssen wir jegliche Regressansprüche ausschließen, die aus der Verwendung der Inhalte des Heibel-Tickers entstehen könnten.

Die Inhalte des Heibel-Tickers spiegeln unsere Meinung wider. Sie stellen keine Beratung, schon gar keine Anlageempfehlungen dar.

Die Börse ist ein komplexes Gebilde mit eigenen Regeln. Anlageentscheidungen sollten nur von Anlegern mit entsprechenden Kenntnissen und Erfahrungen vorgenommen werden. Anleger, die kein tiefgreifendes Know-how über die Börse besitzen, sollten unbedingt vor einer Anlageentscheidung die eigene Hausbank oder einen Vermögensverwalter konsultieren.

Die Verwendung der Inhalte dieses Heibel-Tickers erfolgt auf eigene Gefahr. Die Geldanlage an der Börse beinhaltet das Risiko enormer Verluste bis hin zum Totalverlust des eingesetzten Kapitals.

Quellen:
Kurse: Bloomberg, Deutsche Kurse von comdirect.de, US-Kurse von finance.yahoo.com. Alle Kurse sind Schlusskurse vom Donnerstag sofern nichts Gegenteiliges vermerkt ist.
Bilanzdaten: Bloomberg, Comdirect, Yahoo! Finance sowie Geschäftsberichte der Unternehmen
Informationsquellen: dpa, Aktiencheck, Yahoo! Finance, TheStreet.com, IR-Abteilung der betreffenden Unternehmen

DEUTSCHE BIBLIOTHEK : ISSN 1862-5436
Erscheinungsweise: wöchentlich Freitag/Samstag



7. Mitgliedschaft verwalten



Mitgliedschaft verwalten
Abo verlängern
Express-Option zubuchen

Alle Heibel-Ticker PLUS Updates
Archiv aller Ausgaben
Blog mit aktuellen Beiträgen

Über Stephan Heibel
Compliance Regeln
Heibel-Ticker Portfolio Performance

Fragen und Antworten
Kontakt

Datenschutzerklärung
Impressum