Anzeige:
Seite 1 von 3 123 LetzteLetzte
Ergebnis 1 bis 15 von 36

Thema: Cg Vs C/c++

  1. #1
    Registrierter Benutzer
    Registriert seit
    21.10.2002
    Beiträge
    53

    Cg Vs C/c++

    Hi liebe leute. Hab mich grad hier angemeldet
    Ich programmier gern mit C/C++ und den OpenGL Apis "zeugs" ~spiele - auch presentationen für die schule... (bin 14 jahre alt, da wundern sich die lehrer schon mal... )

    Habt ihr schon mal was von CG gehört?
    Das soll so ein C (oder c++) für Graphics sein, von NVidia...

    Hat sich das jemand von euch schon mal angeguckt?

    www.nvidia.com - dort irgendwo is das
    ca. 100 MB is der komplette toolkit

    1MB ein CG-Beta-2.1-6 Tarball für linux
    http://download.nvidia.com/developer...a-2.1-6.tar.gz
    Aber auch im RPM format möglich
    Slackware 8.1
    C/C++ OpenGL lover
    Java2 learner

  2. #2
    Registrierter Benutzer
    Registriert seit
    12.09.2000
    Beiträge
    46

    Re: Cg Vs C/c++

    Original geschrieben von Woolf

    Habt ihr schon mal was von CG gehört?
    Das soll so ein C (oder c++) für Graphics sein, von NVidia...
    soweit ich weiß, laufen cg-Programme im Grafik-Prozessor, und nicht in der CPU! Es ist also keine Alternative für OpenGL/DirectX, sondern nur ein Compiler für den Texture-Shader(?),...
    Aber damit kann man angeblich mit aktuellen nVidia-Grafikkarten gaaaanz tolle Sachen machen können, und diese auch noch sehr schnell.
    Für mehr Infos solltest du dich wohl am besten mal auf der nVidia-Seite umsehen, auch wenns alles in Englisch ist.

    Gruß & viel Spaß

  3. #3
    Registrierter Benutzer
    Registriert seit
    21.10.2002
    Beiträge
    53
    Bin ich hier eigentlich der einzige bei dem das CG-Linux-Compiler download dauernd abbricht?
    Bin ich hier eigentlich der einzige der nach dem Linuxinstallieren sich keine Gedanken über nen Downloadmanager gemacht hat?

    --

    Also für -nicht-nvidia-grafikkarten- is das nix oder was?

    Doch egal, ich hab ja eine

    Und mich stört englisches nicht (is mir sogar lieber, deutsch is so ne blöder sprache...)
    Slackware 8.1
    C/C++ OpenGL lover
    Java2 learner

  4. #4
    Graviten
    Gast
    Hey@Wolf,

    also meine Frage wäre wie du C beziehungsweise C++ gelernt hast(mit welchem Buch etc.), da ich auch 14 bin und "neu" in der "Szene" bin....

    Danke im Voraus!

    Bye Graviten

  5. #5
    Registrierter Benutzer
    Registriert seit
    21.10.2002
    Beiträge
    53
    wie bist du eigentlich an meine ICQ gekommen?

    hab ich die angegeben=?
    Slackware 8.1
    C/C++ OpenGL lover
    Java2 learner

  6. #6
    Graviten
    Gast
    In dem ich unter deinem Beitrag auf Profil geklickt habe Hast mir noch den Namen des Verlage oder des Autors? Danke!

    Bye Graviten

  7. #7
    Registrierter Benutzer
    Registriert seit
    21.10.2002
    Beiträge
    53
    Autor: Viktor Toth

    Erm, is aber nicht das beste, außer du hast schon andere script/prog sprachen angeguckt

    Weil da nicht von 0 auf 100 steht wies geht<-

    www.amazon.de gibz genug nützliche bücher
    Slackware 8.1
    C/C++ OpenGL lover
    Java2 learner

  8. #8
    Registrierter Benutzer
    Registriert seit
    12.09.2000
    Beiträge
    46
    Original geschrieben von Woolf

    Also für -nicht-nvidia-grafikkarten- is das nix oder was?

    Doch egal, ich hab ja eine
    nVidia behauptet, cg-Programme würden auf jeder Grafikkarte laufen, für die es spezielle cg-Compiler gibt. Deshalb haben die ja auch ihren Compiler als Source freigegeben.
    ATI wäre aber nicht ATI, wenn die einen cg-Compiler schreiben würden. Die haben 1 Monat nach nVidia ihr eigenes "cg" erfunden... wäre ja schlimm, wenn plötzlich Kompatibilität herrschen würde...

    Frust beiseite, du mußt trotzdem deine Spiele in C oder C++ oder was-auch-immer schreiben, nur die Pixelshader (also sehr spezielle grafische Effekte) usw., die direkt auf dem Grafikchip (muß aktuell genug sein!!!!!) laufen, werden unter cg programmiert und mit dem entsprechenden Compiler kompiliert.
    Geändert von Sion (27-10-2002 um 18:15 Uhr)

  9. #9
    Registrierter Benutzer
    Registriert seit
    21.10.2002
    Beiträge
    53
    ich dachte mir schon dass das passiert

    Diese idioten WOLLEN einfach keine kompatibilität

    Wenn ATI jetzt kommt und meint dass nvidia bei CG von ATI mitmachen soll
    Dann wär der Idiotenstreich perfekt
    Slackware 8.1
    C/C++ OpenGL lover
    Java2 learner

  10. #10
    Registrierter Benutzer
    Registriert seit
    12.09.2000
    Beiträge
    46
    Original geschrieben von Woolf
    ich dachte mir schon dass das passiert

    Diese idioten WOLLEN einfach keine kompatibilität

    Wenn ATI jetzt kommt und meint dass nvidia bei CG von ATI mitmachen soll
    Dann wär der Idiotenstreich perfekt
    Ja, aber nVidia ist schlauer. Zuerst dieser Geniestreich dafür einen C-Ähnlichen compiler stricken, und dann diesen incl. Source verschenken, mit der Behauptung "wir wollen ja die Kompatibilität, die Konkurrenz muss halt nur unseren Compiler anpassen!".
    Klar, dass da ATI nachziehen muss, aber nicht auf nVidia's cg-Zug aufspringen kann! Marketing-Technisch echt nicht dumm.
    Bin mal gespannt, wie sich das weiterentwickelt.

    Achja, Woolf: Mach dir keine zu grossen Gedanken über cg, aktuelle Grafikkarten können nur 256-(Assambler!)-Befehle grosse Programme ausführen....

  11. #11
    Registrierter Benutzer
    Registriert seit
    21.10.2002
    Beiträge
    53
    Wow

    Dann hab ich echt ein problem, weil ich mir noch keine gedanken über vertex-arrays gemacht hab

    (hab jeden glVertex3f einezlnd ausgeführt)
    Slackware 8.1
    C/C++ OpenGL lover
    Java2 learner

  12. #12
    ERINACEUS
    Gast
    Hi, ich bin gerade auf der suche nach jemanden der es schon mal geschafft ein etwas komplexeres Programm auf der Graka laufen zu lassen.
    Also wenn du dich damit beschäftigts wäre nett wenn du mir ne E-mail schreiben könntest falls du es schaffst
    mfG Erinaceus

  13. #13
    Registrierter Benutzer Avatar von panzi
    Registriert seit
    04.05.2001
    Ort
    Kottingbrunn
    Beiträge
    609
    (Hab net alle AWs gelesen) mein Senf:

    CG ist ein proprietäre Shader Sprache von Nvidia (nur für Nvidia Karten)
    HLSL ist ein proprietäre Shader Sprache von Microsoft (nur für Windows)
    GLSL ist die Standard Shader Sprache von OpenGL (für ALLES => nimm das wenn du die Wahl hast um unabhängig zu sein!)

    Ein Shader läuft wie schon gesagt in der GPU (Graphics processing unit) und entlaste somit die CPU imens. Mit shadern sind bumpmaps, parallaxmaps, extrem coole Lichteffekte u.v.a.m. möglich. Das sind eigentlich "Pixelshader" (od. Fragmetnshader sagen manche glaub ich?), es gibt aber dann immer auch noch Vertex shader. Diese Shader bewegen Vertices (Eckpunkte von Polygonen). Damit kann man Welleneffekte, Displacementmaps etc. machen.

    Moderne Spiele setzen eigentlich alle auf Shader. (Auch moderne Konsolen verwenden Shader.) Ich hab leider nur ne GeForce4, die letzte ohne Shader unterstützung.

    Da die GPU eben so viel Leistung hat, gibts auch Projekte welche die GPU misbrauchen für "general purpose" berechnungen (GPGPU). Das läuft aber nur mit PCIX wirklich gut, da AGP zwar einen schnellen Hinfluss zum Graphikspeicher hat, aber keinen schnellen Rückfluss => Flaschenhals.
    Intel Core 2 Duo CPU 2.66GHz; Nvidia GeForce 8 8800 GTS; 4GB RAM; Fedora 12; KDE-testing

  14. #14
    Registrierter Benutzer Avatar von panzi
    Registriert seit
    04.05.2001
    Ort
    Kottingbrunn
    Beiträge
    609
    Btw.: schau dir diesen parallaxmap shader an! so kurtz und so geile resultate!
    http://graphics.cs.brown.edu/games/S...lax/index.html
    Intel Core 2 Duo CPU 2.66GHz; Nvidia GeForce 8 8800 GTS; 4GB RAM; Fedora 12; KDE-testing

  15. #15
    Registrierter Benutzer Avatar von panzi
    Registriert seit
    04.05.2001
    Ort
    Kottingbrunn
    Beiträge
    609
    Für eine 3D engine die HLSL + GLSL u.v.a.m. kannst du dir den source von irrlicht anschaun: http://irrlicht.sourceforge.net/

    steht unter der zlib license: http://irrlicht.sourceforge.net/license.html
    Intel Core 2 Duo CPU 2.66GHz; Nvidia GeForce 8 8800 GTS; 4GB RAM; Fedora 12; KDE-testing

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •