this post was submitted on 20 Mar 2024
36 points (100.0% liked)

Deutschland

6710 readers
14 users here now

Sammelbecken für deutsche Kartoffeln und ihre Geschichten über Deutschland.

Nicht zu verwechseln mit !dach und !chad.

Regeln

Bundesländer:

founded 3 years ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
[–] golli@lemm.ee 5 points 8 months ago* (last edited 8 months ago) (2 children)

Es tut mir seelisch weh, aber ich muss Lindner hier zustimmen. Wobei halt auch die Frage ist, zu welchem Ziel man Subventionieren will und wielange. Geht es hier um Klimaschutz (also möglichst günstig, viel erneuerbare Energie), lokale Arbeitsplätze oder um Technologie-Souveränität/reduzierte Abhängigkeit?

Für kosteneffizienten Klimaschutz sind die Subventionen verschwendetes Geld, das man woanders nutzen könnte. Der Markt ist überschwemmt mit günstigen Solarpanelen aus China. Günstiger wird es nicht und es mangelt auch nicht an Fertigungskapazität. Woran es wahrscheinlich eher hakt beim Ausbau ist Bürokratie und Montagekapazitäten, nicht an den Modulen selbst. Und die Technologie ansich ist auch jetzt schon günstiger als fossile Alternative.

Was Arbeitsplätze angeht ist denke ich ein großer Teil eh in der Montage, der ist also eh schon hier und kann garnicht ausgelagert werden. Die Fabriken selbst schaffen glaube ich garnicht soviele Arbeitsstellen und haben wie im Artikel erwähnt auch keine nennenswerten Lieferketten, wo es Synergien für uns gäbe. Wenn es nur Subventionen gibt ohne sonstige Änderungen (z.B. Strafzölle, was wiederum die Panels teurer machen würde und so dem Klimaschutz schadet), dann wären das sehr teure Arbeitsplätze und mussten permanent bezuschusst werden um sich im Markt zu halten.

Bezüglich Technologie: Wie im Artikel erwähnt sind standard Solarpanele Massenware und keine Hochtechnologie. Wenn von Heute auf Morgen China keine Solarpanele mehr liefern würde, dann könnte man hier relativ schnell neue Kapazitäten schaffen. Das erfordert keine extreme Expertise oder geheimes Wissen. Man könnte also Geld auf das Problem werfen und würde schnell Resultate sehen. Anders als z.B. bei den erwähnten leeding-edge Chips, wo es weltweit nur drei Unternehmen (TSMC, Intel und Samsung) gibt, die zur Fertigung in der Lage sind. Da hat man nur die Wahl, dass eines der existierenden Unternehmen eine Fabrik für einen baut oder man müsste für extrem viel Geld über Jahrzente die Fähigkeiten selbst aufbauen. Infenion z.B. könnte man nicht einfach so ein paar Mrd geben um eine leeding-edge Foundry in Deutschland zu bauen.


Was erneuerbare Energie und heimische Produktion angeht sollten wir uns denke ich aktuell mehr auf Windkraft fokusieren. Durch die physische Größe steht man da wahrscheinlich nicht weltweit im Konkurrenzkampf, sondern nur regional. Auch hier liegen die Probleme denke ich aber weniger am Geld (schon jetzt rentabel), sondern mehr an Bürokratie und Infrastruktur.

Man sollte das Geld also nicht einfach an Unternehmen geben, sondern das Stromnetz ausbauen, mehr Bauplätze ausweisen und die Verzögerungen zwischen Planungsbegin und Bau durch Bürokratie reduzieren.

[–] DrunkenPirate@feddit.de 6 points 8 months ago (2 children)

Gute Punkte, die du bringst. Ich möchte noch ergänzen:

  • Auf einige Jahre hin werden Solarpanels noch günstig bleiben. Teilweise unter Produktionskosten, da China massiv, staatlich bezuschusste (sic) Produktion aufgebaut hat. USA diese aber nicht mehr reinlässt und diese in Europas Häfen gedrückt werden. (Leute kauft euch Balkonkraftwerke -jetzt spottbillig)
  • Hauptproblem der Windenergie als auch alle EEG Projekte, sind die gestiegenen Zinsen
  • Windenergie offshore (aufm Meer) gibt es nur in Europa, da sind wir Marktführer
  • Man sollte nicht Solarpanelherstellung, sondern eher Netztechnik, -steuerung, -speicherung und -synchronisierung fördern. Da passiert grade viel unter der Haube und das ist viel näher an Deutschlands Kernkompetenz weil Maschinentechnik und Ingenieurskunst. Ist halt schon EE Phase 2 - Umbau der Netzwerke.
  • Energiespeicherung ist nicht nur Akkubatterie, da gibt es noch viel Vorsprung zu holen.
[–] Turun@feddit.de 3 points 8 months ago* (last edited 8 months ago)

(sic)

Siliziumkarbid eignet sich nicht als Solarzellenmaterial, da es ein indirekter Halbleiter ist und eine zu große Bandlücke aufweist :zwinkersmiley:

[–] golli@lemm.ee 2 points 7 months ago

Das mit den Zinsen ist ein guter Punkt, den ich übersehen hatte. Und bei den beiden letzten Punkten kann ich dir auch Absolut zustimmen, das ist worauf wir uns eher fokusieren müssten.

Windenergie offshore (aufm Meer) gibt es nur in Europa, da sind wir Marktführer

Hier ist vielleicht die Frage ob man gesamtheitlich Europa oder spezieller an die deutsche Position denkt. Hier sehe ich aus deutscher Sicht eher das Problem, dass wir besonders durch Bürokratie ins Hintertreffen im Vergleich mit unseren direkten Nachbarn geraten.

[–] gandalf_der_12te@feddit.de 2 points 8 months ago (1 children)

Wozu brauchen wir eigentlich leeding-edge chips? Genügt es nicht, irgendwelche Chips zu nehmen, und dann notfalls halt mehr davon?

[–] golli@lemm.ee 1 points 7 months ago (2 children)

Meine Einschätzung als interessierter Laie:

TLDR: Theoretisch ja, praktisch nein: Rechenleistung wird immer mehr in fast allen Wirtschaftsbereichen benötigt. Für Unternehmen im internationalen Wettbewerb wäre diese Lösung nicht praktikabel. Ind woher sollen die Massen anderer Chips kommen falls der Zugang zu leeding-edge chips wegfällt?


Prinzipiell ist es korrekt, dass auch Prozessoren die auf älteren Fertigungsprozessen beruhen dieselben Berechnungen durchführen könnten nur ineffizienter. Und mit mehr Chips könnte man das ganze beschleunigen.

Die Frage ist allerdings wie realistisch diese Alternative ist, vor allem im Kontext wirtschaftlicher Wettbewerbsfähigkeit. Mehr Prozessoren (für die gleiche Leistung) bedeuten ja auch nicht nur das mehr Chips benötigt werden, sondern auch mehr Energieverbrauch, mehr Server hardware, Kühlung, Gebäude und so weiter. Das macht Kostenmäßig massive Unterschiede und die Technik entwickelt sich extrem schnell weiter (siehe Moor's Law).

Rechenleistung wird heutzutage überall in immer weiter wachsendem Maße benötigt. Nicht nur für den aktuellen Hype mit AI und Large Language Models wie ChatGPT, sondern in praktisch allen Wirtschaftsbereichen. Zum Beispiel in der Pharmaindustrie (siehe projekte wie Alphafold), überall in der Industrie wo du etwas simulieren musst wie Aerodynamik oder Materialeigenschaften und letztlich überall wo Daten anfallen und man Trends erkennen und optimieren will. Unternehmen die im internationalen Wettbewerb stehen und nur Zugang zu langsameren Chips hätten, würden es extrem schwer haben konkurenzfähig zu bleiben.

Das ist also gesamwirtschaftlich relevant und im Vergleich zur Solarindustrie gibt es hier auch eine erheblich größere Lieferkette, anderweitig verflochtene Unternehmen, gutbezahlte Jobs und Know-How, welche man durch den Bau einer Fab versuchen kann anzusiedeln.

Davon abgesehen stellt sich natürlich auch die simple Frage: Wenn wir aus irgendeinem grund keine leeding-edge Chips bekommen, woher sollen dann plötzlich die Massen an anderen Chips kommen?


Um den status quo der Chipherstellung ein bisschen zu beleuchten:

Es gibt Chips die auf älteren, größeren Prozessen basieren, welche vor allem im industriellen Rahmen (z.B. der Autoindustrie) Anwendung finden. Dort kommt es primär auf Kosten und Zuverlässigkeit an, weniger auf Rechenleistung oder Effizienz. In diesem Bereich gibt es mehr unterschiedliche Hersteller. Wie ein Angebotsschock hier aussieht haben wir z.B. durch Corona erlebt, wodurch die Montagebänder aufgrund von Chip-Mangel teilweise still standen und Preise massiv nach oben gingen. Aus diesem Grund wird TSMC in Kooperation mit Bosch und Infenion wahrscheinlich auch subventioniert eine Fab (glaube für 28nm) hier in Deutschland bauen.

Was die Herstellung moderner Chips (damit meine ich nicht nur die absolute leeding edge, sondern auch was ein paar generationen älter ist wie z.B. 10nm) angeht haben wir in Europa glaube ich nur Intel Fabs in Irland. Ansonsten ist die meiste Kapazität in Taiwan, gefolgt von den USA, Korea, China und Israel (intel).

Man würde heutzutage wohl eher keine "mittleren" 7nm oder 10nm Fabriken neu bauen, weil es nicht wirtschaftlich wäre. Zu schlecht für high end Chips und zu teuer für simplere Anwendugen. Vor allem weil ja existierende Kapazitäten frei werden, sobald das nächst bessere bereit ist. Wenn man neu baut ist es also entweder leeding edge oder das was TSMC baut für die Industrie, nicht was dazwischen liegt.

Wobei eine Fabrik nicht konstant geupgraded wird, also nicht permanent an der absoluten leeding edge bleibt. Sobald eine Fab am start ist läuft das erstmal auf dem festgelegten Fertigungsprozess (mit vllt kleinen updates) weiter. Bis sie irgendwann zu alt ist und es wirtschaftlicher ist zu upgraden (weil ein komplett neuer Standort noch teurer wäre als der Kapazitätsverlust durch den Austausch der existierenden Geräte).

Wir subventionieren also garnicht unbedingt speziell nur den Bau einer absoluten leeding edge Fabrik, sondern generell Kapazitäten für moderne Chips und das Know-How diese unabhängig Produzieren zu können. Und diese Notfalls dann auch ausbauen zu können und nicht von 0 zu starten zu müssen wenn es zuspät ist.

Man muss aber vielleicht noch erwähnen, dass wir in Europa mit Unternehmen wie ASML oder Zeiss absolut einzigartige und unersätzliche Unternehmen in der Semiconductor Lieferkette besitzen. Da stehen wir also nicht komplett nackt dar. Wir haben es halt nur leider Versäumt mit der Chip-Herstellung und damit Verbundenen Wertschöpfung am Ball zu bleiben.


Um ein den geopolitischen Hintergrund ein bisschen zu beleuchten:

Globale Krisen wie Corona, aber auch der potentielle Krieg zwischen Taiwan (wo ein Großteil der weltweiten Chip industrie angesiedelt ist) haben zu einem deglobaliserungs Denken weltweit geführt. Der Ausfall von Taiwans Chipindustrie z.B. würde jegliche bisherige Krise lächerlich aussehen lassen.

Ganz konkret z.B. hat die USA auch schon Ausfuhrverbote nach China für high end GPUs von Nvidia und Maschienen zur Chip Herstellung von ASML verhängt. Unter anderem deswegen versucht China schon relativ lange in diesem Bereich unabhängiger zu werden. Aber auch die USA subventionieren den Bau neuer Fabriken massive mit dem CHIPS Act und Japan versucht mit Rapidus leeding edge Fähigkeiten aufzubauen. Es folgen also nicht nur Deutschland/Europa sondern alle die es sich Leisten können diesem Trend.

Für Taiwan ist die Chipindustrie praktisch ihr bestes Schutzschild gegen China, da es die Unterstützung des Westens garantiert.

[–] gandalf_der_12te@feddit.de 1 points 7 months ago (1 children)

Globale Krisen wie Corona, aber auch der potentielle Krieg zwischen Taiwan (wo ein Großteil der weltweiten Chip industrie angesiedelt ist) haben zu einem deglobaliserungs Denken weltweit geführt. Der Ausfall von Taiwans Chipindustrie z.B. würde jegliche bisherige Krise lächerlich aussehen lassen.

Noch ein guter Punkt. Ich denke, man könnte den Unsicherheiten in der Lieferkette zum einen natürlich durch den Aufbau eigener Kapazitäten, zum anderen auch durch hoarding (also Lager befüllen) begegnen. So wie wir es derzeit mit den billigen chinesischen Solarzellen machen.

[–] golli@lemm.ee 1 points 7 months ago* (last edited 7 months ago)

Danke für den Link über Solarzellen, definitiv interssant zu lesen.


Zur Alternative hoarding:

In einigen Bereichen mag das bis zu einem gewissen Grad gehen. Unter anderem für Waffensysteme (z.B. was für chips auch immer Taurus nutzt), Banken mit ihren Mainframes, kritische Infrastruktur wie Kraftwerke oder medizinische Geräte. Was diese aber alle gemein haben ist, dass es a) nicht primär auf rechenleistung ankommt, b) lange update cycles haben oder praktisch nie geändert werden sobald zertifiziert und c) nicht nicht in extremen Massen benötigt werden, sondern in relativ gut definiertem, bekannten Unfang.

Für den allgemeinen Bedarf an Rechenleistung und die Wirtschaft wird das so nicht funktionieren. Angefangen mit der Frage, was man denn lagern würde. "Chips" ist nicht nur ein Produkt sondern ein sehr weites Feld, da gibt es CPUs, GPUs, FPGAs oder auch hoch spezialisierte Produkte wie z.B. Cerebras wafer-scale engine.

Hier war ich unpräzise war in meinem letzten Kommentar, dass man es richtig ist, dass man einfach mehr Chips statt modernerer nutzen könnte. CPUs als eine Art "jack of all trades, master of none" könnnten das (wobei es auch hier je nach anwendung Software translation layers bräuchte bzw legacy software umgeschrieben werden müsste), aber lägen in bestimmten Anwendugen soweit hinter spezialisierten Produkten zurück, dass sie kein praktiabler Ersatz wären. Wir müssten also Raten welche Chips in welchem Verhältnis relevant wären (und eventuell gäbe es neue, derzeit nicht existierende Lösungen). Im Falle des derzeitigen AI-Hypes z.B. wird in Zukunft mehr Leistung für Training oder Interference benötigt? Jenachdem wären unterschiedliche Chips wichtiger.

Die nächste Frage ist auch für welchen Zeitpunkt und welche "qualität" von Chips man denn einlagert. Der worst case wäre ja z.B. der Ausfall Taiwans durch Invasion Chinas. Aber wann? 2027, -30, -35? Und unabhängig von der Menge, die eingelagert würden: Man würde ja kaum die neuesten Chips kaufen, da viel zu teuer und verschwendung sie einzulagern, statt direkt zu nutzen wo es eh derzeit einen Mangel besonders bei GPUs gibt. Sondern ältere Chips ("schlechtere qualität"), die aber mit jedem Jahr weniger relevant werden. In gewisser weise (zumindest im hinblick auf die Rechenleistung relativ zu leeding edge produkten) also ein verderbliches Produkt sind, dass immer unrelevanter würde. Oder permanent teure Nachkäufe benötigen würde.

Wirtschaftlich also totale Geldverschwendung und sicher nicht günstiger als die Subvention einer neuen Fabrik, selbst wenn das 10mrd € sind. wobei man sich ja hier ja einen gewissen grad an ROI (return on investment) verspricht.


Davon abgesehen kann man garnicht soviel Einlagern wie die Wirtschaft bräuchte. Die US-Giganten sind vllt nicht vergleichbar mit unseren mickrigen Unternehmen, aber als Referenz Meta kauft mal eben für 10Mrd Nvidia GPUS quelle. Um einer Krise gegenzusteuern bei der längerfristig ein Angebotsverlust besteht (anders als die temporäre Corona Krise) würden gelagerte Chips selbst im besten Fall nur sehr kurzfristig helfen. Und dann müsste man wiederum eh Anfangen Kapazitäten aufzubauen. Was aber leider wiegesagt Jahre oder sogar Jahrzente dauern kann wenn man von nahe Null anfangen muss (anstatt existierende auszubauen und mit ausgebildeten Fachkräften).

[–] gandalf_der_12te@feddit.de 1 points 7 months ago* (last edited 7 months ago) (1 children)

Mehr Prozessoren (für die gleiche Leistung) bedeuten ja auch nicht nur das mehr Chips benötigt werden, sondern auch mehr Energieverbrauch, mehr Server hardware, Kühlung, Gebäude und so weiter. Das macht Kostenmäßig massive Unterschiede und die Technik entwickelt sich extrem schnell weiter (siehe Moor’s Law).

Also ich habe gerade nachgeschaut, und der Stromverbrauch würde beim Umstieg auf ARM z.B. nicht steigen, sondern eher sogar sinken. (siehe z.B. hier.

Man würde heutzutage wohl eher keine “mittleren” 7nm oder 10nm Fabriken neu bauen, weil es nicht wirtschaftlich wäre. Zu schlecht für high end Chips und zu teuer für simplere Anwendugen. Vor allem weil ja existierende Kapazitäten frei werden, sobald das nächst bessere bereit ist. Wenn man neu baut ist es also entweder leeding edge oder das was TSMC baut für die Industrie, nicht was dazwischen liegt.

Da stimme ich dir übrigens zu, das ist schön formuliert.

[–] golli@lemm.ee 1 points 7 months ago

Also ich habe gerade nachgeschaut, und der Stromverbrauch würde beim Umstieg auf ARM z.B. nicht steigen, sondern eher sogar sinken. (siehe z.B. hier.

Das Instruction set hat nichts mit dem Fertigungsprozess zu tun und ist deswegen komplett unabhängig von diesem Problem.

ARM vs x84_64 oder RISC-V es gibt immer eine Abwägung zwischen Effizienz, maximaler Leistung und Kompatibilität mit alter Software. In der Praxis sind die meisten ARM Produkte definitiv mehr auf Effizienz getrimmt und x84_64 hat besonders Kompatibilität als Merkmal. Und dieser Punkt ist sehr relevant, sonst hätte es den von dir überlegten Umstieg schon längst gegeben und wir hätten keine x84_64 prozessoren mehr. Niemand will existierende Software umschreiben müssen, falls er es vermeiden kann. Translation layers die Kompatibilität schaffen könnten sind komplex und würden wohl jeden Vorteil vernichten.

Und wie im anderen Post erwähnt würde das ja z.B. nur für CPUs gelten, aber nicht den Rest (wo im moment besonders GPUs relevant sind).