Veröffentlicht am März 15, 2024

Entgegen der landläufigen Meinung ist nicht allein deine Internetverbindung für Lag und unfaire Momente im Online-Gaming verantwortlich. Die wahre Ursache liegt in bewussten architektonischen Kompromissen der Entwickler. Dieser Artikel enthüllt aus der Sicht eines Server-Architekten, wie Entscheidungen über Latenzausgleich, Server-Aktualisierungsraten und physikalische Gegebenheiten das Spielerlebnis diktieren und was du selbst tun kannst, um deine Verbindung zu optimieren.

Jeder Gamer kennt diesen Moment der puren Frustration: Man hechtet hinter eine Mauer, fühlt sich sicher und wird trotzdem von einem Schuss getroffen, der physikalisch unmöglich scheint. Die erste Reaktion ist fast immer dieselbe: ein Fluch in Richtung „schlechter Server“ oder des eigenen Internetanbieters. Man spricht von „Lag“, „schlechtem Netcode“ oder einem ungerechten „Peeker’s Advantage“. Doch diese Phänomene sind selten das Resultat von Fehlern oder kaputter Technik. Sie sind das beabsichtigte Ergebnis eines komplexen Balanceaktes – ein Schlachtfeld architektonischer Kompromisse.

Als Server-Architekt, der an massiven Multiplayer-Welten arbeitet, ist es meine Aufgabe, dieses kontrollierte Chaos zu managen. Die Herausforderung besteht nicht darin, eine „perfekte“, latenzfreie Welt zu erschaffen – das ist durch die Gesetze der Physik unmöglich. Die Kunst liegt darin, eine Wahrnehmung von Fairness und Reaktionsfähigkeit zu konstruieren, obwohl die Computer von hunderten Spielern, die über den ganzen Globus verteilt sind, alle eine leicht unterschiedliche Version der Realität erleben. Die Entscheidungen, die wir treffen – welche Daten priorisiert, wie Bewegungen vorhergesagt und wie widersprüchliche Informationen aufgelöst werden –, haben direkten Einfluss darauf, ob sich ein Spiel flüssig anfühlt oder unfair.

Doch was, wenn die wahre Ursache für Frustration nicht in der reinen Millisekunde an Latenz liegt, sondern im Verständnis dafür, wie das System diese Latenz verwaltet? In diesem Artikel blicken wir hinter die Kulissen. Wir werden die fundamentalen technischen Prinzipien entschlüsseln, die jeder modernen Multiplayer-Erfahrung zugrunde liegen. Von der Client-Server-Kommunikation über die Skalierung für Tausende von Spielern bis hin zu den konkreten Schritten, die du in deinem Heimnetzwerk unternehmen kannst. Es ist an der Zeit, die Mythen zu entlarven und zu verstehen, warum dein Spiel so funktioniert, wie es funktioniert.

Um die komplexe Technik hinter den Multiplayer-Servern zu verstehen, beleuchten wir die entscheidenden Aspekte Schritt für Schritt. Dieses Inhaltsverzeichnis führt Sie durch die häufigsten Mysterien und ihre technischen Erklärungen.

Warum wurdest du getroffen, obwohl du schon hinter der Mauer warst?

Dieses Phänomen, bekannt als Peeker’s Advantage, ist die wohl frustrierendste Erfahrung im Online-Gaming und ein perfektes Beispiel für die „Wahrnehmungsasymmetrie“. Es ist keine Einbildung und kein Bug, sondern die direkte Konsequenz der physikalischen Realität: der Lichtgeschwindigkeit. Die Informationen über die Position deines Gegners müssen erst von seinem PC zum Server und dann zu deinem PC reisen. Diese Reise dauert Zeit – die Latenz oder der Ping. In dieser Zeit bewegst du dich weiter. Dein Spiel-Client zeigt dir aus Gründen der Flüssigkeit sofort deine Bewegung hinter die Deckung an (Client-Side Prediction), aber der Server „sieht“ dich noch für einen kurzen Moment auf deiner alten, ungeschützten Position. Wenn dein Gegner in diesem Zeitfenster schießt, registriert der Server einen Treffer auf deiner alten Position, obwohl du auf deinem Bildschirm schon längst in Sicherheit bist.

Abstrakte Visualisierung von Latenz und Spielerbewegungen im Gaming

Die Dauer dieses Vorteils ist die Summe der Pings beider Spieler plus die Verarbeitungszeit des Servers. Wie eine Analyse zu Valorant zeigt, beträgt der Peeker’s Advantage dort durchschnittlich 40-70 ms. Das klingt nach wenig, ist aber bei einer menschlichen Reaktionszeit von ca. 250 ms ein entscheidender Vorteil für den Angreifer („Peeker“). Moderne Techniken wie die Lag-Kompensation versuchen, dies auszugleichen, indem sie die Spielwelt für jeden Spieler leicht „zurückspulen“, um Treffer zu validieren. Das führt jedoch zu dem ebenso frustrierenden Gefühl, von jemandem getroffen zu werden, der auf deinem Bildschirm noch gar nicht um die Ecke gekommen ist. Es ist ein architektonischer Kompromiss: Entweder der Schütze wird benachteiligt oder das Ziel.

64 Tick vs. 128 Tick: Macht die Server-Aktualisierungsrate dich wirklich besser?

Die Tickrate eines Servers gibt an, wie oft pro Sekunde die Spielwelt aktualisiert wird. Ein 64-Tick-Server verarbeitet 64-mal pro Sekunde die Aktionen aller Spieler, ein 128-Tick-Server tut dies 128-mal. Theoretisch bedeutet eine höhere Tickrate, dass Bewegungen und Schüsse präziser und mit geringerer Verzögerung erfasst werden. Treffer werden genauer registriert, und die Lücke zwischen dem, was du siehst, und dem, was der Server weiß, wird kleiner. Im professionellen E-Sport, wo Millisekunden entscheiden, gilt 128 Tick daher als Goldstandard. Aber macht es für den durchschnittlichen Spieler wirklich einen spürbaren Unterschied?

Die Antwort ist ein klares „Jein“ und ein weiteres Beispiel für einen architektonischen Kompromiss. Eine höhere Tickrate erfordert mehr Rechenleistung vom Server und eine höhere Bandbreite von allen Spielern. Die Kosten für den Betrieb von 128-Tick-Servern sind signifikant höher, weshalb viele Entwickler bei ihren öffentlichen Matchmaking-Servern auf 64 Tick setzen. Die überraschende Wahrheit ist, dass viele Spieler den Unterschied gar nicht bemerken. Eine umfangreiche, wenn auch informelle, Reddit-Studie zeigt, dass nur 41,3 % der Spieler in einem Blindtest korrekt identifizieren konnten, ob sie auf einem 128-Tick-Server spielten. Der wahrgenommene Vorteil hängt stark von der individuellen Fähigkeit, der Stabilität der eigenen Bildrate (FPS) und der Latenz ab. Wenn deine FPS unter 128 liegen, kannst du den Vorteil eines 128-Tick-Servers ohnehin nicht voll ausschöpfen.

Vergleich der Tick-Raten in populären Spielen
Spiel Tick-Rate Anmerkung
CS:GO Matchmaking 64 Tick Standard Valve Server
CS:GO FACEIT/ESEA 128 Tick Competitive Gaming
VALORANT 128 Tick Standard für alle Server
Call of Duty MW 12-22 Tick Niedrigste Rate unter großen Titeln
Overwatch 60.25 Tick Mittelfeld-Position

Letztendlich ist die Entscheidung für eine bestimmte Tickrate ein Kompromiss zwischen maximaler Präzision für eine kleine Elite und einem stabilen, zugänglichen Erlebnis für die breite Masse. Für die meisten Spieler ist eine stabile Verbindung zu einem 64-Tick-Server vorteilhafter als eine instabile zu einem 128-Tick-Server.

Wie schaffen es MMOs, tausende Spieler in einer Welt zu haben, ohne dass es ruckelt?

Die Herausforderung, hunderte Spieler in einem schnellen Shooter zu synchronisieren, verblasst im Vergleich zur Aufgabe, eine persistente Welt für Zehntausende von Spielern in einem Massively Multiplayer Online Game (MMO) am Laufen zu halten. Würde ein einzelner Server versuchen, die Aktionen, Interaktionen und Positionen aller Spieler in Echtzeit zu verarbeiten, würde er sofort kollabieren. Die Lösung liegt in einer cleveren Aufteilung der Last, die als Sharding oder Instancing bekannt ist.

Beim traditionellen Sharding wird die Spielerschaft auf mehrere identische Kopien der Spielwelt aufgeteilt. Jeder „Shard“ ist ein eigenständiger Server mit einer begrenzten Spielerzahl. Du und deine Freunde müssen auf demselben Shard sein, um miteinander spielen zu können. Instancing ist eine dynamischere Variante, bei der für bestimmte Gebiete, wie Dungeons oder Schlachtfelder, temporäre, private Kopien erstellt werden, um die Spielerzahl im Hauptgebiet zu entlasten. Dies ist eine bewährte, aber auch trennende Methode, da sie das „Massive“ in MMO untergräbt.

Fallbeispiel: Star Citizen’s Server Meshing Technology

Eine revolutionäre Weiterentwicklung dieses Konzepts ist das sogenannte Server Meshing. Hier arbeiten mehrere Server nicht mehr an getrennten Weltkopien, sondern an verschiedenen geografischen Zonen einer einzigen, nahtlosen Welt. Ein Server könnte für einen ganzen Planeten zuständig sein, ein anderer für eine einzelne Stadt darauf und ein dritter für ein großes Raumschiff im Orbit dieses Planeten. Wenn ein Spieler von einer Zone in eine andere wechselt, wird er nahtlos vom einen Server zum nächsten übergeben. Das ambitionierte Weltraum-MMO Star Citizen treibt diese Technologie maßgeblich voran. Laut den Entwicklern ermöglicht Server Meshing, mehrere Server nahtlos zusammenarbeiten zu lassen, als wären sie ein einziger riesiger Server, um die Vision einer einzigen, riesigen Spielwelt für alle zu verwirklichen.

Diese architektonischen Ansätze sind der Schlüssel zur Skalierbarkeit. Sie reduzieren die Menge an Daten, die jeder einzelne Spieler senden und empfangen muss, auf das, was für ihn relevant ist. Du musst nicht wissen, was ein Spieler auf einem anderen Kontinent tut. Der Server sorgt dafür, dass du nur die Informationen über die Spieler in deiner unmittelbaren Umgebung erhältst. So wird aus einem unlösbaren Datenproblem eine handhabbare Aufgabe.

Warum sind Spieleserver an Wochenenden oft nicht erreichbar und wer steckt dahinter?

Jeder regelmäßige Spieler kennt das Phänomen: Pünktlich zum Start des Wochenendes oder nach einem großen Update sind die Login-Server überlastet und die Spiel-Server von Lags geplagt. Die einfache Erklärung „zu viele Spieler“ greift hier zu kurz. Dahinter verbirgt sich ein fundamentaler wirtschaftlicher Kompromiss bei der Ressourcenallokation. Einen Server-Park zu betreiben, der die absolute Spitzenlast – beispielsweise an einem Samstagabend nach einem Patch-Release – problemlos bewältigen kann, wäre extrem teuer. Die meiste Zeit, etwa an einem Dienstagvormittag, wären 90% dieser Kapazitäten ungenutzt. Daher provisionieren Entwickler ihre Server meist für eine „hohe Durchschnittslast“, nicht für die absolute Spitze. Wenn diese Kapazität überschritten wird, können die Server nicht mehr jeden Tick rechtzeitig verarbeiten, was zu den bekannten Symptomen wie Rubber-Banding, Teleportation und nicht registrierten Treffern führt.

Zusätzlich zu diesen legitimen Lastspitzen gibt es jedoch auch einen bösartigen Faktor: DDoS-Angriffe (Distributed Denial of Service). Hierbei wird ein Server gezielt mit einer Flut von Anfragen von tausenden gekaperten Computern (einem Botnetz) bombardiert. Das Ziel ist es, den Server so zu überlasten, dass er für normale Spieler nicht mehr erreichbar ist. Die Motive sind vielfältig: Erpressung, Konkurrenzkampf oder schlicht Vandalismus. Diese Angriffe sind für Spieleentwickler ein ständiges und kostspieliges Wettrüsten, das spezielle Hardware und Dienste zur Abwehr erfordert.

Abstrakte Darstellung von Serverüberlastung und Netzwerkangriffen

Wenn also das nächste Mal die Server wackeln, gibt es zwei Hauptverdächtige: Entweder hat der Entwickler eine kalkulierte wirtschaftliche Entscheidung getroffen und die Kapazitätsgrenze wurde durch den Ansturm der ehrlichen Spieler erreicht, oder eine externe Gruppe versucht aktiv, den Dienst lahmzulegen. In beiden Fällen ist das Ergebnis für den Spieler dasselbe: Frustration.

Wann ist es unfair, PC- und Konsolenspieler auf denselben Server zu lassen?

Cross-Play, das gemeinsame Spielen über Plattformgrenzen hinweg, ist einer der größten Trends der letzten Jahre. Es vereint Freundeskreise und sorgt für vollere Server. Doch es wirft auch eine entscheidende Frage auf: Ist es fair, Spieler mit fundamental unterschiedlicher Hardware gegeneinander antreten zu lassen? Die Debatte dreht sich oft um „Maus und Tastatur vs. Controller“, aber die technischen Unterschiede gehen weit tiefer und schaffen eine inhärente Unausgeglichenheit.

PC-Spieler haben in der Regel erhebliche technische Vorteile. Sie können höhere und unbegrenzte Bildraten (FPS) erreichen, was zu einem flüssigeren Bild und geringerer Eingabeverzögerung führt. Sie nutzen hochpräzise Mäuse für schnelle und exakte Zielbewegungen und können Grafikeinstellungen so anpassen, dass Gegner besser sichtbar sind. Konsolenspieler sind an feste Bildraten (oft 60 oder 120 FPS) und die systembedingte höhere Latenz von Controllern und TV-Geräten gebunden. Um diesen Nachteil auszugleichen, implementieren Entwickler eine Zielhilfe (Aim Assist) für Controller. Und genau hier liegt der Kern der Kontroverse.

PC vs. Konsole – Technische Unterschiede im Vergleich
Aspekt PC Konsole
Bildrate Uncapped (oft 144-360 FPS) Locked (30-120 FPS)
Input-Lag Minimal mit Gaming-Maus Höher mit Controller
Aim Assist Nicht vorhanden Implementiert zur Kompensation
Grafikeinstellungen Anpassbar für Sichtbarkeit Fest vorgegeben
Netzwerk-Stack Direkter PC-Zugriff Konsolen-API Layer

Eine schlecht implementierte Zielhilfe kann unfair sein. Ist sie zu schwach, haben Controller-Spieler keine Chance. Ist sie zu stark, fühlt es sich für PC-Spieler an, als würde der Gegner cheaten, da das Fadenkreuz förmlich am Ziel „klebt“. Dieser Punkt wird durch einen breiten Konsens in der Gaming-Community untermauert. Wie es oft in Spieler-Feedback heißt:

Die Rolle der ‚Aim Assist‘-Implementierung kann die Balance massiv verschieben – verschiedene Stärken der Implementierung führen zu Frustration auf beiden Seiten

– Gaming-Community Konsens, basierend auf Spieler-Feedback aus verschiedenen Cross-Platform-Titeln

Ein „faires“ Cross-Play in kompetitiven Shootern ist daher ein extrem schwieriger Balanceakt. Es ist weniger eine Frage der Server-Technik als vielmehr des Game-Designs. In kooperativen oder weniger wettbewerbsorientierten Spielen sind die Unterschiede weniger problematisch, aber sobald es um präzises Zielen geht, bleibt die Konfrontation der Plattformen ein ungelöster architektonischer Kompromiss.

Warum ist voll zerstörbare Umgebung in Multiplayer-Spielen so schwer zu synchronisieren?

Vollständig zerstörbare Umgebungen, wie in Spielen der „Battlefield“-Reihe oder „The Finals“, sind ein technisches Meisterwerk, aber auch ein Albtraum für die Zustandssynchronisation. Das Problem ist weitaus komplexer als nur die Position von Spielern zu synchronisieren. Jedes einzelne Trümmerteil, das bei einer Explosion entsteht, ist ein physikalisches Objekt, dessen Flugbahn, Rotation und Kollision berechnet werden muss. Würde jeder Client dies selbst berechnen, wäre das Ergebnis auf jedem PC ein anderes.

Der Grund dafür liegt tief in der Hardware: Determinismus. Eine Berechnung ist deterministisch, wenn sie mit denselben Eingabedaten immer exakt dasselbe Ergebnis liefert. Moderne Physik-Engines sind jedoch oft nicht-deterministisch. Wie in Entwicklerforen diskutiert wird, können identische Physik-Berechnungen auf unterschiedlichen CPUs (z.B. von Intel und AMD) aufgrund winziger Abweichungen in der Gleitkomma-Arithmetik zu leicht unterschiedlichen Ergebnissen führen. Ein Trümmerteil fliegt auf einem PC wenige Millimeter weiter links als auf einem anderen. Was als winzige Abweichung beginnt, eskaliert schnell zu komplett unterschiedlichen Spielzuständen: Auf deinem Bildschirm blockiert ein Felsbrocken den Weg, auf dem deines Gegners liegt er woanders. Chaos ist die Folge.

Um dies zu lösen, greifen Entwickler zu verschiedenen architektonischen Kompromissen:

  • Vorgefertigte Zerstörung: Anstatt die Zerstörung prozedural zu berechnen, werden vordefinierte Bruchmuster und Animationen abgespielt. Dies ist deterministisch, aber weniger dynamisch (z.B. in Rainbow Six Siege).
  • Serverseitige Berechnung: Der Server führt die gesamte Physikberechnung allein durch und teilt den Clients nur das Endergebnis mit („Dieses Trümmerteil landet an Position X“). Dies ist die exakteste Methode, erfordert aber eine enorme Rechenleistung vom Server.
  • Reduzierte Detailtiefe: Für weit entfernte Explosionen werden weniger Trümmerteile oder vereinfachte Animationen an die Spieler gesendet, um Datenverkehr und Rechenlast zu sparen.

Die perfekte, dynamische und für tausende Spieler synchronisierte Zerstörung bleibt eine der größten technischen Herausforderungen. Jeder Ansatz ist ein Kompromiss zwischen visueller Pracht, physikalischer Genauigkeit und der Belastung für Server und Netzwerk.

Warum solltest du nie auf „Auto“ stehen lassen, wenn du Server manuell wählen kannst?

Viele Spiele bieten eine „automatische“ Serverauswahl, die verspricht, dich mit dem Server mit dem besten Ping zu verbinden. In der Theorie ist das ideal, in der Praxis kann diese Funktion jedoch zu inkonsistenten Ergebnissen führen. Der Grund ist, dass „bester Ping“ oft nur die Latenz in einem einzigen Moment misst und nicht die Stabilität der Route oder die Auslastung des Servers berücksichtigt. Die physikalische Realität der Geografie ist hier der entscheidende Faktor.

Die Latenz wird maßgeblich von der Distanz bestimmt, die Datenpakete zurücklegen müssen. Es ist ein weit verbreiteter Irrglaube, dass eine höhere Bandbreite (z.B. 500 MBit/s) automatisch einen besseren Ping bedeutet. Ein konkretes, in Deutschland relevantes Beispiel verdeutlicht dies: Ein Spieler in Hamburg mit einer schnellen Leitung, der von der Automatik einem Server in Australien zugewiesen wird, hat einen katastrophalen Ping von über 300 ms. Ein anderer Spieler mit langsamem DSL, der sich manuell mit dem Server in Frankfurt verbindet, hat einen exzellenten Ping von unter 20 ms. Eine Analyse zeigt, dass die geografische Nähe entscheidender ist als die Bandbreite. Für deutsche Spieler sind Server in Frankfurt (am Main), Amsterdam oder London fast immer die beste Wahl, da sie nahe am wichtigen Internetknotenpunkt DE-CIX in Frankfurt liegen.

Die manuelle Auswahl eines Servers hat einen weiteren, entscheidenden Vorteil: Konsistenz. Wenn du immer denselben, geografisch nahen Server wählst, spielst du unter gleichbleibenden Bedingungen. Du lernst, mit der spezifischen Latenz dieses Servers umzugehen, und vermeidest böse Überraschungen, weil das Spiel dich plötzlich auf einen überlasteten oder weiter entfernten Server schickt. Es ist ratsam, verschiedene nahegelegene Server (z.B. Frankfurt und Amsterdam) zu testen und denjenigen auszuwählen, der nicht nur den niedrigsten, sondern auch den stabilsten Ping über einen längeren Zeitraum bietet. Ein Ping unter 20 ms gilt als optimal, alles unter 50 ms ist für die meisten Spiele nahezu perfekt.

Das Wichtigste in Kürze

  • Latenz ist Physik, kein Fehler: Phänomene wie der „Peeker’s Advantage“ sind unvermeidbare Konsequenzen der Datenübertragungszeit und kein Bug.
  • Alles ist ein Kompromiss: Ob Tickrate, Cross-Play oder Serverkapazität – Entwickler müssen ständig zwischen Kosten, Performance und Fairness abwägen.
  • Du hast mehr Kontrolle als du denkst: Die manuelle Server-Auswahl und die Optimierung deines Heimnetzwerks (QoS) können einen größeren Einfluss haben als ein Upgrade deiner Internet-Bandbreite.

Warum hast du trotz 100 Mbit Leitung einen hohen Ping und wie fixst du das?

Es ist das größte Missverständnis im Online-Gaming: die Verwechslung von Bandbreite und Latenz. Deine 100 MBit/s (oder mehr) Leitung beschreibt die Bandbreite – also die Menge an Daten, die pro Sekunde durch die Leitung passt. Man kann es sich wie eine Autobahn vorstellen: Eine hohe Bandbreite bedeutet, dass du eine zehnspurige Autobahn hast. Die Latenz (Ping) hingegen ist die Geschwindigkeit, mit der ein einzelnes Auto (ein Datenpaket) von A nach B kommt. Fürs Gaming ist eine hohe Geschwindigkeit viel wichtiger als eine breite Autobahn, da Spieldaten aus vielen kleinen, aber zeitkritischen Paketen bestehen.

Makroaufnahme von Glasfaser- und Kupferkabeln mit Lichteffekten

Die Technologie deines Anschlusses ist hier entscheidend. Wie aktuelle Latenzmessungen für deutsche Anschlüsse zeigen, hat Glasfaser mit 3-10 ms die mit Abstand niedrigste Latenz, da Daten hier als Lichtsignale übertragen werden. VDSL über Kupferkabel liegt mit 20-40 ms im guten Mittelfeld. Eine Kabelverbindung ist immer einer WLAN-Verbindung vorzuziehen, da WLAN anfälliger für Störungen und Schwankungen ist, die den Ping negativ beeinflussen. Die gute Nachricht: Du kannst selbst aktiv werden. Wenn andere Personen in deinem Haushalt gleichzeitig streamen oder große Dateien herunterladen, konkurrieren diese Daten mit deinen Spieldaten um die Priorität auf dem Router. Hier kommt Quality of Service (QoS) ins Spiel.

Ihr Action-Plan: Gaming-Performance in der Fritz!Box optimieren

  1. Router-Oberfläche aufrufen: Öffne deinen Browser und gib „fritz.box“ in die Adresszeile ein, um dich auf deinem Router anzumelden.
  2. Quality of Service (QoS) finden: Navigiere im Menü zu „Internet“ -> „Filter“ -> „Priorisierung“. Hier findest du die Einstellungen für Quality of Service.
  3. Gaming-Gerät priorisieren: Wähle in der Liste der Netzwerkgeräte deine Spielekonsole oder deinen Gaming-PC aus und weise ihm die Kategorie „Echtzeitanwendungen“ zu. Dadurch werden die Datenpakete deines Geräts vom Router bevorzugt behandelt.
  4. Bandbreite reservieren: Stelle sicher, dass unter „Heimnetz“ -> „Netzwerk“ die Verbindungsart deines Gaming-PCs auf „LAN“ mit 1 Gbit/s steht, um den vollen Vorteil einer Kabelverbindung zu nutzen.
  5. Kabel vor WLAN: Der wichtigste Schritt: Verbinde dein Gaming-Gerät immer, wenn möglich, per Ethernet-Kabel direkt mit dem Router. Dies eliminiert die Latenzschwankungen und Paketverluste, die bei WLAN auftreten können.

Durch die richtige Konfiguration deines Routers stellst du sicher, dass deine zeitkritischen Spieldaten immer „Vorfahrt“ haben, selbst wenn das restliche Netzwerk stark genutzt wird. Dies ist oft effektiver als jeder teure Tarifwechsel.

Jetzt, da du die architektonischen Kompromisse und technischen Realitäten hinter den Kulissen verstehst, kannst du Probleme nicht nur besser einordnen, sondern auch gezielt gegensteuern. Der nächste logische Schritt ist die konsequente Anwendung dieser Kenntnisse auf dein eigenes Setup.

Geschrieben von Julia Klein, Lead Gameplay Programmer und Engine-Spezialistin mit Fokus auf Unity und Unreal Engine 5. Master of Science in Informatik der TU München und 10 Jahre Erfahrung in der Spieleentwicklung bei AA-Studios.