expertenaustausch > comp.os.* > comp.os.unix.linux.hardware

Heinz-Mario Frühbeis (10.02.2020, 01:08)
Am 09.02.20 um 21:03 schrieb Michael Brand:
> Heinz-Mario Frühbeis wrote:
> ...
> Hm, warum den (veralteten) 2700 und nicht den (moderneren) 3700?
> Und die QVO statt der EVO? War dir das zu teuer?


Meines Wissens nach gibt es den 3700 "nur" als 'X'...
Davon mal abgesehen, ja, das wäre mir im Moment zu viel Geld. Er ist
aber schon ein "Sahneschnittchen". :) Und das bei 65W TDP!

Der 2700 hat acht Kerne und boostet maximal vier Kerne bis zu 4,1 GHz,
das ist für mich soweit ok, auch für die nächsten Jahre.
Und die 3,2 GHz Basistakt sind für den Alltag, auch zum Videoschneiden,
auch gut, da ja eben acht Kerne / 16 Threads.
Mein Intel I3-6100, mit dem ich eigentlich sehr zufrieden bin<!>, hat
3,7 GHz (kein Boost), zwei Kerne / vier Threads, "splittet" aber
sozusagen diese 3,7 GHz, wenn z. Bsp. mehr Threads anstehen. Wenn ich
also z. Bsp. sechs heftige Filter habe, dann kommt es beim I3 zu
Rucklern, da er ja die einzelnen Filter nur 'nach und nach' abarbeiten
kann. Der R-7-2700 kann so was in einem Rutsch verarbeiten.
Der AMD Ryzen-7-2700 ist für mich also die günstigste Variante...

Meine erste SSD ist eine 830er Samsung (alle meine SSD's sind übrigens
von Samsung), die immer noch ihren Dienst tut. Damals gab es noch kein
'EVO'...
Meine zweite SSD war dann eine 'EVO', für die ich mich entschied, weil
sie halt günstiger ist, als eine 'Pro' und für den Alltag die gleiche
Leistung bietet. Ich habe damals, ist also **einige** Jahre her, auch
heftig überlegt, 'EVO' vs 'Pro', bereuen tue ich es nicht, das ich mich
für 'EVO' entschied.
Und bei 'QVO' ist es meines Erachtens quasi das Gleiche. Im Post davor
habe ich die Gründe ja schon angeführt, bis 15 GB kopieren / verschieben
auf einmal, da ist die 'QVO' genau so gut, wie die 'EVO'.
Einzig, die "nur" drei Jahre Garantie. Aber da, und das ist meine
Meinung, denke ich, daß Samsung einzig den Preis drücken will um
preislich noch näher an die HDD's heran zu kommen.

Mit Gruß
Heinz-Mario Frühbeis
Michael Brand (13.02.2020, 18:42)
Heinz-Mario Frühbeis wrote:
> Am 09.02.20 um 21:03 schrieb Michael Brand:
> Meines Wissens nach gibt es den 3700 "nur" als 'X'...
> Davon mal abgesehen, ja, das wäre mir im Moment zu viel Geld. Er ist
> aber schon ein "Sahneschnittchen". :) Und das bei 65W TDP!
> Der 2700 hat acht Kerne und boostet maximal vier Kerne bis zu 4,1 GHz,
> das ist für mich soweit ok, auch für die nächsten Jahre.
> Und die 3,2 GHz Basistakt sind für den Alltag, auch zum Videoschneiden,
> auch gut, da ja eben acht Kerne / 16 Threads.


Aber selbst der Ryzen 5-3700, der ja 'nur' 6 Kerne hat ist schon
schneller; die modernere Architektur bringt einiges. Gut, dafür ist er
ca. 30? teurer...

> Mein Intel I3-6100, mit dem ich eigentlich sehr zufrieden bin<!>, hat
> 3,7 GHz (kein Boost), zwei Kerne / vier Threads, "splittet" aber
> sozusagen diese 3,7 GHz, wenn z. Bsp. mehr Threads anstehen. Wenn ich
> also z. Bsp. sechs heftige Filter habe, dann kommt es beim I3 zu
> Rucklern, da er ja die einzelnen Filter nur 'nach und nach' abarbeiten
> kann. Der R-7-2700 kann so was in einem Rutsch verarbeiten.
> Der AMD Ryzen-7-2700 ist für mich also die günstigste Variante...


Hoffentlich wirst du nicht enttäuscht...

[..]
> Einzig, die "nur" drei Jahre Garantie. Aber da, und das ist meine
> Meinung, denke ich, daß Samsung einzig den Preis drücken will um
> preislich noch näher an die HDD's heran zu kommen.


Ich stehe QLC-Flash etwas zwiespältig gegenüber. Vergleichbare
TLC-Flash-SSDs sind auch nicht teurer.

> Mit Gruß
> Heinz-Mario Frühbeis


Michael
Heinz-Mario Frühbeis (14.02.2020, 19:41)
Am 13.02.20 um 17:42 schrieb Michael Brand:
> Heinz-Mario Frühbeis wrote:
> Aber selbst der Ryzen 5-3700, der ja 'nur' 6 Kerne hat ist schon
> schneller; die modernere Architektur bringt einiges. Gut, dafür ist er
> ca. 30? teurer...


3700? 3700...? 6 Kerne? Der 3600 hat 6 Kerne. und 3700 X hat 8 Kerne...
Und einen 3700 gibt es mWn "nur" mit 'X'. Vielleicht gab es den mal
ohne..., keine Ahnung, aber zur Zeit nur mit 'X'.

Davon mal abgesehen: Auch der 3600 geht ab "wie Schmitz' Katze"!
Zur Zeit überlege ich vom 2700 (8 Kerne) zum 2600 (6 Kerne) zu "wechseln".
Und dann den 2600 zu übertakten (300 MHz vielleicht), was aber wieder
unter Linux gar nicht so simple ist, wie z. Bsp. unter Windows.
Soll mir aber auch recht/egal sein, da ich unter Linux ja arbeite und
unter Windows "zocke". :)

> Hoffentlich wirst du nicht enttäuscht...


:)

Na, was meinst du, wie sehr ich hoffe!
Aber das ist, wie ich es kenne:
Z. Bsp. 6 mögliche Threads (per Video-Editor) mit 4 Threads ist
langsamer, als mit 6 Threads, der CPU.
Ich werde es ja erleben und 'en Upgrade (in Teilen oder Komplett) steht
eh an... :)
(Ich möchte unbedingt RDR-2 spielen!)

> Ich stehe QLC-Flash etwas zwiespältig gegenüber. Vergleichbare
> TLC-Flash-SSDs sind auch nicht teurer.


Wie ich ja schrieb..., ich vergleiche das mit meiner Erst-Entscheidung
zur EVO damals. Damals galten im Grunde die gleichen Kriterien...
Man macht es, oder man macht es nicht..., jedenfalls bereue ich es
wirklich nicht, daß ich mich damals für eine EVO entscheiden habe.

Mit Gruß
Heinz-Mario Frühbeis
Michael Brand (15.02.2020, 13:54)
Heinz-Mario Frühbeis wrote:
> Am 13.02.20 um 17:42 schrieb Michael Brand:
>> Heinz-Mario Frühbeis wrote: [...]

> 3700? 3700...? 6 Kerne? Der 3600 hat 6 Kerne. und 3700 X hat 8 Kerne...
> Und einen 3700 gibt es mWn "nur" mit 'X'. Vielleicht gab es den mal
> ohne..., keine Ahnung, aber zur Zeit nur mit 'X'.


Vertipper...ich meinte den Ryzen 5-3600.

> Davon mal abgesehen: Auch der 3600 geht ab "wie Schmitz' Katze"!
> Zur Zeit überlege ich vom 2700 (8 Kerne) zum 2600 (6 Kerne) zu "wechseln".


Wie, noch langsamer?

> Und dann den 2600 zu übertakten (300 MHz vielleicht), was aber wieder
> unter Linux gar nicht so simple ist, wie z. Bsp. unter Windows.


Wie bereits geschrieben, hole dir lieber einen aus der 3000er Reihe, die
sind wesentlich performanter als die 2000er oder gar 1000er.
Die paar Euro Differenz kannst du eventuell bei der Wahl des Mainboards
zum Teil wieder 'reinholen.

> Soll mir aber auch recht/egal sein, da ich unter Linux ja arbeite und
> unter Windows "zocke". :)


Da ist die Grafikkarte viel wichtiger als die CPU-Leistung.

[...]

> Aber das ist, wie ich es kenne:
> Z. Bsp. 6 mögliche Threads (per Video-Editor) mit 4 Threads ist
> langsamer, als mit 6 Threads, der CPU.
> Ich werde es ja erleben und 'en Upgrade (in Teilen oder Komplett) steht
> eh an... :)
> (Ich möchte unbedingt RDR-2 spielen!)


Wie bereits geschrieben, da zählt die Grafikkarte und nicht so sehr die
CPU. Mit einer GTX 1060/6GB oder 1660/6GB oder besser macht das dann
schon Spaß. Sogar auf einem alten Intel Core i7-3770 (4 Kerne / 8
Threads / 3,4-3,9 GHz).


Das hoffst du. Aber wenn du lieber öfter mal was neues kaufst als gleich
was brauchbares...¹

> Wie ich ja schrieb..., ich vergleiche das mit meiner Erst-Entscheidung
> zur EVO damals. Damals galten im Grunde die gleichen Kriterien...
> Man macht es, oder man macht es nicht..., jedenfalls bereue ich es
> wirklich nicht, daß ich mich damals für eine EVO entscheiden habe.
> Mit Gruß
> Heinz-Mario Frühbeis


¹ Ja, das ist meine persönliche, subjektive Meinung.
Nein, davon lasse ich mich nicht abbringen ;-)
Heinz-Mario Frühbeis (15.02.2020, 15:40)
Am 15.02.20 um 12:54 schrieb Michael Brand:
> Heinz-Mario Frühbeis wrote:
> [...]
> [...]
> Wie bereits geschrieben, da zählt die Grafikkarte und nicht so sehr die
> CPU. Mit einer GTX 1060/6GB oder 1660/6GB oder besser macht das dann
> schon Spaß. Sogar auf einem alten Intel Core i7-3770 (4 Kerne / 8
> Threads / 3,4-3,9 GHz).


Nee..., nee. Darf ich widersprechen! Das wird von der CPU verarbeitet.
Heißt: Ich habe einen Video-Clip **bearbeitet**..., der wird gedreht,
vergrößert, mit Maske, noch andere Farbgebung, etc., dann wird das von
der CPU berechnet und im Allgemeinen kann man sagen, "Je mehr Threads
die CPU hat, je mehr Threads können **gleichzeitig** bearbeitet werden.

Das **Rendern** /kann/ vom Chip der GraKa übernommen werden, /kann/...,
muss nicht. Ich pers. bevorzuge 'Export per CPU'.

> Das hoffst du. Aber wenn du lieber öfter mal was neues kaufst als gleich
> was brauchbares...¹


@ ¹:
Wollte ich schon meinen! :)
Eine, meine EVO's (eine 830er und zwei "so und so"-EVO'S (120 GB und 250
GB)) sind tadellos.

Und zum Thema "hoffe": Ja klar, is' doch immer, mehr oder weniger, immer
so. Kaufe ich was, hoffe ich..., auf was auch immer. ;)

>>>> [...]

> ¹ Ja, das ist meine persönliche, subjektive Meinung.
> Nein, davon lasse ich mich nicht abbringen ;-)


'Til then...
Michael Brand (15.02.2020, 22:19)
Heinz-Mario Frühbeis wrote:
> Am 15.02.20 um 12:54 schrieb Michael Brand:
> Nee..., nee. Darf ich widersprechen! Das wird von der CPU verarbeitet.


Da hast du mich missverstanden. Das mit der Grafikkarte bezog sich
allein auf dein "zocken", in diesem Fall speziell RDR-2.

> Heißt: Ich habe einen Video-Clip **bearbeitet**..., der wird gedreht,
> vergrößert, mit Maske, noch andere Farbgebung, etc., dann wird das von
> der CPU berechnet und im Allgemeinen kann man sagen, "Je mehr Threads
> die CPU hat, je mehr Threads können **gleichzeitig** bearbeitet werden.
> Das **Rendern** /kann/ vom Chip der GraKa übernommen werden, /kann/...,
> muss nicht. Ich pers. bevorzuge 'Export per CPU'.


Keine Ahnung, ob es nicht schon möglich wäre die Rechenleistung der
Graka dafür einzusetzen.

> @ ¹:
> Wollte ich schon meinen! :)
> Eine, meine EVO's (eine 830er und zwei "so und so"-EVO'S (120 GB und 250
> GB)) sind tadellos.
> Und zum Thema "hoffe": Ja klar, is' doch immer, mehr oder weniger, immer
> so. Kaufe ich was, hoffe ich..., auf was auch immer. ;)
> 'Til then...


Michael

Ähnliche Themen