Jump to content

მათე

მოდერატორი
  • Posts

    15264
  • Joined

  • Last visited

  • Days Won

    128

Everything posted by მათე

  1. მანდ რა წერია ვერ გაიგე? არენდერებს 1080პ ში ყველაფერს გარდა მედიისა რო ბატარეა დაზოგოს. ასევე პერფორმანსიც ოპტიმიზაცოისთვის რადგან 4 კ ში ვერ გაქაჩავდა თვითონ ეკრანი ზუსტად იმდენს ხარჯავს რამდენსაც 4 კ ს ჩვენებისას დახარჯავდა. უკვე ორჯერ დავწერე ეს და ორივეჯერ სწორი არ ხარო მითხარი და რაც მანდ ინგლისურად წერია, ჩემს ნათქვამს არ ეწინააღმდეგება ეტყობა მე რაც ვთქვი ეგ ვერ გაიგე სწორად
  2. არ ხარ სწორი. 4k ეკრანი ისევ 4k არის მიუხედავად იმისა 1080 პ ს გაუშვებ ზედ თუ ვაფშე 240 პს. დაზოგვით მხოლოდ ის ენერგია დაიზოგება რაც სიტყვაზე თამაშის 4k ზე გაშვებასა და 1080 პ ზე გაშვებას შორის იქნება. თვითონ ეკრანი აბსოლუტურად ერთნაერად დაწვავს 4კ ს აჩვენებს თუ 1080პ-ს. აი ის დატებითი პიქსელწბი რო ირთვენოდეს და სუფთა 1080 პ რჩებოდეს ბაზარი არაა მარა ახლა როგორცაა 4 პიქსელს აერთიანებენ და ოსე აყენებენ 1080პ ზე უაზრობაა და მიხვედრაც მარტივია რატო ქნეა მასე. უბრალოდ ჰარდი ვერ გაუმკლავდებოდა 4კ ს. ადრეა მაგისთვის ჯერ.
  3. 4k ეკრანი ტყუილად აქვს z5 premium-ს მხოლოდ media-ს ანახებს 4k-ში დანარჩენს 1080p-ში არენდერებს ვითომ ენერგიის დასაზოგადო. ანუ ფაქტობრივად 4 პიქსელს აერთიანებენ და იღებენ 1080p გამოსახულებას. მაგარი უაზრობაა რა თვითონ 4k ეკრანი ისევ 4k იქნება ანუ 8 მილიონი პიქსელი და ენრეგიას მაგ მხრივ ვერ დაზოგავენ ზუსტად იმდენს დაწვავს რასაც ჩვეულებრივი 4k გამოსახულების ჩვენებისას, უბრალოდ იმ მცირე ენერგიას ზოგავენ მაგით რაც მაგ 4k გამოსახულების ჩვენებას სჭირდება 1080p_სთან შედარებით. ვერ ვხვდები რაღატო ტენიდნენ 4k ეკრანს თუ მაინც 1080p-ში უნდა ემუშავებინათ. ფაქტობრივად media-ს გარდა სხვაობა არ იქნება მგ ეკრანსა და იგივე ზომის 1080p ეკრანს შორის პიქსელების მხრივ. http://www.phonearena.com/news/Sony-Z5-Premium-only-renders-media-in-4K-the-rest-in-1080p-for-a-two-day-battery_id73761
  4. რო მინდოდეს HTPC-ებს რო ეძახიან ეგეთი რაღაცის აწყობა ვიყიდდი რაც შეიძლება პატარა დედაპლატას, მისივე პროცესორს და ამ ვიდეობარათს რადგან მსგავს ზომებში მისი თანასწორი კი არა ახლოს მდგომი კარტაც კი არ აქვს nvidia-ს წარმადობით. უცხოეთში თანხა არაა პრობლემა მაგ 150$-ს ბევრი იმიტომ დაუმატებს მასეთი კომპი ააწყოს და ნორმალური გაგრილებაც ჩაატიოს შიგნით. ხედავ წყლის ბლოკს დაადებ და ცვეტში ხმის ბარათივით ხდება ამ სიმძლავრის კარტა. საქართველოში ეგეთები რატომღაც არ ევასებათ და ხალხი შკაფივით კეისებს ყიდულობს 400-500-600 ლარებად, ასევე ძალით დაგრძელებულ ვიდეობარათებს (რაღაც კომპლექსია მოკლე კარტების) არადა რა ჯობია ერთი ბეწო როა და უდიდესი ძალის მქონე. linus-ამ მაგარი კომპი ააწყო აგერ ნახე. https://www.youtube.com/watch?v=ZbONfPkwa_s Fury X-თ ან nano-თი მეტი ადგილი დაგრჩება სხვა რაღაცებისთვის.
  5. აი ეს წყლის ბლოკი უნდა დაუყენო nano-ს და იდგება ყველა იგრაში 1000 MHZ-ზე და იქნება Fury-ზე უკეთესი, მაშინ ექნება მხოლოდ 50 MHZ სხვაობა fury X-თან. ისე კი 980-ს მაინც ჯობია და მოდი არა nvidia-ს ფანის არამედ ნეიტრალური მხრის თვალით შევხედოთ. ფასი/წარმადობი ყველაზე fail კარტა არა nano რომელიც 550 $ უნდა ღირდეს და 650 $ ღირს არამედ Titan X-ია, იმიტომ რომ იგივე წარმადობის 980 ti 650 $ ღირს და Titan X 1000$ ეხლა ზოგი შემედავება რო ჰიბრიდული კარტააო და ესაო და ისაო. არაფერი ჰიბრიდული მაგ კარტას არ აქვს. 1 Quadro სერიას მაგრად გამოარჩევს დრაივერები GTX სერიიდან ეგ კი GTX Titan X-ია და quadro-ს დრაივერი არ ყენდება მაგაზე 2 აქვს უსაშინლესი double precision performance ვსო ეს ორი უმნიშვნელოვანესი ფაქტორი მაგ კარტას აქცევს ძალიან ძვირიან სტანდარტულ gamer_ულ კარტად. ამას ძალიან ბევრი review-რიც ამბობს.
  6. სწორს გეუბნებიან ვანო. დაფიქრდი, აიღეს Fury X-ს ჩიპი რომელიც 275w-ს მოიხმარს და იგივე მონაცემების გააკეთეს და 175 W-ს მოიხმარს. ამ შედეგს სწორედ რომ სიხშირის დაწევით მიაღწიეს. შენ რასაც იძახი მანდ სადაა ლოგიკა ვაფშე არ მესმის 275 W-ს მოიხმარს და 50 MHZ რო მოაკლო 175 W-ზე დავა? შანსი არაა. ეგ კარტა გრუზზე 800-850-900 MHZ-ზე მუშაობს დაახლოებით. მაგიტომ წერია ასე და მაგიტომაც აქვს ამხელა სხვაობა Fury X-თან და მაგიტომ არის ასეთი ენერგოეფექტური და გრილი. ესაა 50 MHZ სხვაობა? up to 1000 MHZ
  7. ვების ფაზები კიდე უფრო მეტი აქვს kingpin-ტან შედარებით მაგ HOF-ებს ბრენდის და სახელის პონტში გაბერილი ფასი ადევს kingpin-ს. ეს ASIC მაგარი რამე მოიგონეს ძაან 650 $-იან კარტას 1050$ დადეს ფასი
  8. LG-ს Nexus 5X 29 სექტემბერს გამოდისო და 400$ ეღირებაო http://www.androidauthority.com/lg-nexus-5x-release-price-leak-639306/
  9. აქ დავდებ ამ ინფოს ჯობია Oxide developer "Kollack" Made a lengthy response on Overclock.net forums last night, dispelling some of the myths surrounding Ashes of the Singularity and GPU Vendor Bias. http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1200#post_24356995 TL;DR for Kollacks response: - Oxide has been working openly with Nvidia, AMD and Intel, but more with Nvidia in recent months than AMD or Intel. - If Ashes is biased, than any Unreal 4 game must be Nvidia biased as well (exposing a logical fallacy) - Ashes is not the only game being developed with Nitrous Engine, so it is not some benchmark outlier - Nvidia DX11 performance improved heavily over the past month, DX12 overhead still better for Nvidia than DX11 and has not been fully tweaked yet - A separate rendering path was made at Nvidia's request to disable async compute on Nvidia hardware. - enabling DX12 async compute for Maxwell was an unmitigated disaster - Maxwell does not appear to support async Compute, at least not natively for DX12 gaming - Ashes uses a modest amount of DX12 Async Compute, Ashes is not a poster child for advanced GCN features. - Some newer console games in development are seeing up to 30% performance gain by turning on async compute for gaming effects - Minimum frame times in DX12 should be the same for AMD and Nvidia, but 290x benched slightly better minimum frame times than 980ti, which appears to be a variance in GPU hardware and not the application - AMD has not complained to Oxide about working with Nvidia, even though AMD are in a marketing agreement with Stardock - Oxide not in a fight with Nvidia. Nvidia not disputing what oxide said in their blog. Nvidia had a knee jerk reaction to oxide not giving in to Nvidia PR pressure to disable certain features in the benchmark. Maxwell doesn't natively support Asynchronous Compute for DX12 gaming. Kollack, from the same thread responds: Given that AotS was first using Mantle before switching to DX12, its very interesting that they said "It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features." Kollacks comment "Whether or not Async Compute is better or not is subjective" carries more weight behind it than even I realized at first. His mention of Nvidia's scheduler reveals the reason why Nvidia May not even need Async Compute in DX12, if Nvidia releases drivers for every game to optimize their scheduler (on a game by game basis like they have done with DX11). It's a clue Kollack left that few are picking up on. It also means that AMD can fart around with drivers and not worry, while Nvidia may have to invest considerable time for each game to optimize their scheduler. Kollack, again in the same thread: Compute shaders rendered in parallel pipelines may very well be where developers are headed for gaming, or at least an option they are considering, if there is any merit to what Kollack says. Given the need for Asynchronous Compute in VR to reduce latency, it makes sense for now. Kollack has responded regarding Nvidia and Async Compute Support. How exactly Nvidia will be implementing Async Compute Support is unknown at this time. Current understanding of Nvidia hardware suggests that Nvidia's approach will not be the same as AMD's, given the serial nature of Nvidia's render pipeline. https://www.reddit.com/r/pcgaming/comments/3j1916/get_your_popcorn_ready_nv_gpus_do_not_support/ hilarious Explain Like I'm 5 version https://www.reddit.com/r/pcgaming/comments/3j1916/get_your_popcorn_ready_nv_gpus_do_not_support/cullj3d http://gearnuke.com/amd-employee-claims-nvidias-maxwell-gpus-utterly-incapable-performing-async-compute/# http://thegametechnician.com/2015/08/31/analysis-amds-long-game-realization/ AMD_Robert Dive's into the brawl: https://www.reddit.com/r/AdvancedMicroDevices/comments/3iwn74/kollock_oxide_games_made_a_post_discussing_dx12/ His comment "Maxwell is utterly incapable of performing asynchronous compute" should not be separated from the rest of the sentence: "without heavy reliance on slow context switching." AMD_Robert then clarifies that GCN 1.2 is indeed fully DX12_0 feature compliant, but missing DX12_1 features: გაიგე ვანო არც maxwell-ს აქვს async shading-ს native მხარდაჭერა და ამის გაკეთება latency-ს დაკარგვა უჯდება რადგან მაგ დროს 290x-ს უკეთესი latency აქვს ვიდრე 980 ti-ს რაც გაცილებით უკეთეს smooth Gaming-ს ნიშნავს. ასევე ის ფაქტიც ნათქვამია რომ nvidia-ს რაღაც feature-ების გათიშვა უნდოდა თავისივე PR-სთვის მარა არ გათიშეს nvidia-სგან ზეწოლის მუხედავად! ისიც წერია რომ AMD-ზე არ დაჭირდება დიდად დრაივერების ოპტიმიზაცია და წვალება როცა Nvidia-ს მოუწევს ამის გაკეთება. არაა ეს nvidia-ს კარტები DX12-სთვის რა არის DX11-სთვის შექმნილი და მანდ აკეთებენ საქმეს მარა AMD DX12-სთვის მზად იყო. Mantle როცა გააკეთეს მაშინ მომზადებული ქონდათ კარტები მასეთი Low level API-სთვის როგორიცაა DX12. ეს პოსტიც წაიკითხე oculus_ზეა. Lol გრაფიკული კარტების მხარდაჭერაში nvidia-ს ინტელმაც კი აჯობაო http://www.overclockers.ge/index.php?/topic/27453-oculus-rift-ვირტუალურ-რეალური-მოწყობილობა-3d-თამაშისთვის/&do=findComment&comment=860865 აგერ აგიხსნით რას ნიშნავს ეს maxwell-ს აქვს 1 Graphics queue + 31 compute queues მაგრამ მათი გამოყენება გამოთვლებისთვის პარალელურად არ ხდება. მას შეუძლია გააკეთოს buffer-რება asynchronous compute-ს და გაუშვას ასინქრონულად რომელიმე მათგანი, მაგრამ არა პარალელურ რეჟიმში რამდენიმე მათგანი როგორც ამას AMD აკეთებს. ხო ასევე nvidia-ს არ შეუძია graphics queue და compute queue გაუშას პარალელურად მოხლოდ რიგრიგობით. ეს არაა ის asynchronous shading რაც AMD-ს აქვს. მიხვდით როგორ მუშაობს? აი ამიტომ წერია ზემოთაც რომ ნვიდიას სჭირდება sheduler რო როგორმე დაალაგონ ეს გამოთვლები. AMD-ს არ სჭირდება ეს. მისი ბარათები პარალელურ რეჟიმში ახორციელებენ გამოთვლებს, ამიტომ წარმადობაც გაცილებით უკეთესია და latency-ც ნაკლებია. აი ესაა რაც დიდი ხნის ინფორმაციის მოძიების შემდეგ გავიგე. სწორედ ამირომაა იმის თქმა რომ nvidia-ს აქვს asynchronous shading არასწორი. ეს განსხვავებული ტექნოლოგიაა მისი მუშაობის პრინციპით რაც ზემოთ ნათლად ავხსენი მათთვის ვისაც არ ესმის. AS შეიქმნა იმისთვის რო დავალებები გრაფიკული თუ გამოთვლითი პარალელურ რეჟიმში დროის დაუკარგავად შესრულებულიყო და GPU მუდამ დატვირთული ყოფილიყო idle წყვეტების გარეშე რასაც nvidia-ს Maxwell 2,0-ც ვერ შვება.
  10. სიახლეები oculus-ს მხარდაჭერასთან დაკავშირებით The video in question - Please fast forward to 1:21:35 Quote This is a pretty significant problem for VR in particular, and I know this was obvious (about AMD having an advantage over NVIDIA because of their async compute capibilities), but AMD's is TrueAudio seeming to be the better way to go for VR. I don't like the political stance Oculus has on the issue, I feel like they should be more open on 'what is best, what is not good' and so forth. This is probably going to stir up a mild 'crap hitting the fan' storm but this is just another example of why NVIDIA needs to focus on implementing a better async compute in the future. The tide is indeed seemingly to be turning in AMD's favour, and NVIDIA, even with their 80% market share, is not immune to the market's flexibility and adaptive nature. But man, you've got to be doing something wrong if Intel has better graphics support than you... TL;DR NVIDIA is getting bit in the bum because they didn't predict the importance of AS when making Maxwell. AMD played the future game and it looks like it's pulling off at the moment. According to Oculus, Intel > NVIDIA. ანუ nvidia ყველაზე უარესია ამ შემთხვევაში დაჟე Intel_მა აჯობა ვიდეოკარტების მწარმოებელ კომპანიას გრაფიკული ბარათების მხარდაჭერაში რადგან nvidia-მ ვერ გაითვალისწინა თუ რამდენად მნიშვნელოვანია AS ამიტომაც შესაძლოა წააგოს ეს თამაში.
  11. Oxide developer "Kollack" Made a lengthy response on Overclock.net forums last night, dispelling some of the myths surrounding Ashes of the Singularity and GPU Vendor Bias. http://www.overclock.net/t/1569897/various-ashes-of-the-singularity-dx12-benchmarks/1200#post_24356995 TL;DR for Kollacks response: - Oxide has been working openly with Nvidia, AMD and Intel, but more with Nvidia in recent months than AMD or Intel. - If Ashes is biased, than any Unreal 4 game must be Nvidia biased as well (exposing a logical fallacy) - Ashes is not the only game being developed with Nitrous Engine, so it is not some benchmark outlier - Nvidia DX11 performance improved heavily over the past month, DX12 overhead still better for Nvidia than DX11 and has not been fully tweaked yet - A separate rendering path was made at Nvidia's request to disable async compute on Nvidia hardware. - enabling DX12 async compute for Maxwell was an unmitigated disaster - Maxwell does not appear to support async Compute, at least not natively for DX12 gaming - Ashes uses a modest amount of DX12 Async Compute, Ashes is not a poster child for advanced GCN features. - Some newer console games in development are seeing up to 30% performance gain by turning on async compute for gaming effects - Minimum frame times in DX12 should be the same for AMD and Nvidia, but 290x benched slightly better minimum frame times than 980ti, which appears to be a variance in GPU hardware and not the application - AMD has not complained to Oxide about working with Nvidia, even though AMD are in a marketing agreement with Stardock - Oxide not in a fight with Nvidia. Nvidia not disputing what oxide said in their blog. Nvidia had a knee jerk reaction to oxide not giving in to Nvidia PR pressure to disable certain features in the benchmark. Maxwell doesn't natively support Asynchronous Compute for DX12 gaming. Kollack, from the same thread responds: Given that AotS was first using Mantle before switching to DX12, its very interesting that they said "It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features." Kollacks comment "Whether or not Async Compute is better or not is subjective" carries more weight behind it than even I realized at first. His mention of Nvidia's scheduler reveals the reason why Nvidia May not even need Async Compute in DX12, if Nvidia releases drivers for every game to optimize their scheduler (on a game by game basis like they have done with DX11). It's a clue Kollack left that few are picking up on. It also means that AMD can fart around with drivers and not worry, while Nvidia may have to invest considerable time for each game to optimize their scheduler. Kollack, again in the same thread: Compute shaders rendered in parallel pipelines may very well be where developers are headed for gaming, or at least an option they are considering, if there is any merit to what Kollack says. Given the need for Asynchronous Compute in VR to reduce latency, it makes sense for now. Kollack has responded regarding Nvidia and Async Compute Support. How exactly Nvidia will be implementing Async Compute Support is unknown at this time. Current understanding of Nvidia hardware suggests that Nvidia's approach will not be the same as AMD's, given the serial nature of Nvidia's render pipeline. https://www.reddit.com/r/pcgaming/comments/3j1916/get_your_popcorn_ready_nv_gpus_do_not_support/ hilarious Explain Like I'm 5 version https://www.reddit.com/r/pcgaming/comments/3j1916/get_your_popcorn_ready_nv_gpus_do_not_support/cullj3d http://gearnuke.com/amd-employee-claims-nvidias-maxwell-gpus-utterly-incapable-performing-async-compute/# http://thegametechnician.com/2015/08/31/analysis-amds-long-game-realization/ AMD_Robert Dive's into the brawl: https://www.reddit.com/r/AdvancedMicroDevices/comments/3iwn74/kollock_oxide_games_made_a_post_discussing_dx12/ His comment "Maxwell is utterly incapable of performing asynchronous compute" should not be separated from the rest of the sentence: "without heavy reliance on slow context switching." AMD_Robert then clarifies that GCN 1.2 is indeed fully DX12_0 feature compliant, but missing DX12_1 features: გაიგე ვანო არც maxwell-ს აქვს async shading-ს native მხარდაჭერა და ამის გაკეთება latency-ს დაკარგვა უჯდება რადგან მაგ დროს 290x-ს უკეთესი latency აქვს ვიდრე 980 ti-ს რაც გაცილებით უკეთეს smooth Gaming-ს ნიშნავს. ასევე ის ფაქტიც ნათქვამია რომ nvidia-ს რაღაც feature-ების გათიშვა უნდოდა თავისივე PR-სთვის მარა არ გათიშეს nvidia-სგან ზეწოლის მუხედავად! ისიც წერია რომ AMD-ზე არ დაჭირდება დიდად დრაივერების ოპტიმიზაცია და წვალება როცა Nvidia-ს მოუწევს ამის გაკეთება. არაა ეს nvidia-ს კარტები DX12-სთვის რა არის DX11-სთვის შექმნილი და მანდ აკეთებენ საქმეს მარა AMD DX12-სთვის მზად იყო. Mantle როცა გააკეთეს მაშინ მომზადებული ქონდათ კარტები მასეთი Low level API-სთვის როგორიცაა DX12. ეს პოსტიც წაიკითხე oculus_ზეა. Lol გრაფიკული კარტების მხარდაჭერაში nvidia-ს ინტელმაც კი აჯობაო http://www.overclockers.ge/index.php?/topic/27453-oculus-rift-ვირტუალურ-რეალური-მოწყობილობა-3d-თამაშისთვის/&do=findComment&comment=860865 აგერ აგიხსნით რას ნიშნავს ეს maxwell-ს აქვს 1 Graphics queue + 31 compute queues მაგრამ მათი გამოყენება გამოთვლებისთვის პარალელურად არ ხდება. მას შეუძლია გააკეთოს buffer-რება asynchronous compute-ს და გაუშვას ასინქრონულად რომელიმე მათგანი, მაგრამ არა პარალელურ რეჟიმში რამდენიმე მათგანი როგორც ამას AMD აკეთებს. ხო ასევე nvidia-ს არ შეუძია graphics queue და compute queue გაუშას პარალელურად მოხლოდ რიგრიგობით. ეს არაა ის asynchronous shading რაც AMD-ს აქვს. მიხვდით როგორ მუშაობს? აი ამიტომ წერია ზემოთაც რომ ნვიდიას სჭირდება sheduler რო როგორმე დაალაგონ ეს გამოთვლები. AMD-ს არ სჭირდება ეს. მისი ბარათები პარალელურ რეჟიმში ახორციელებენ გამოთვლებს, ამიტომ წარმადობაც გაცილებით უკეთესია და latency-ც ნაკლებია. აი ესაა რაც დიდი ხნის ინფორმაციის მოძიების შემდეგ გავიგე. სწორედ ამირომაა იმის თქმა რომ nvidia-ს აქვს asynchronous shading არასწორი. ეს განსხვავებული ტექნოლოგიაა მისი მუშაობის პრინციპით რაც ზემოთ ნათლად ავხსენი მათთვის ვისაც არ ესმის. AS შეიქმნა იმისთვის რო დავალებები გრაფიკული თუ გამოთვლითი პარალელურ რეჟიმში დროის დაუკარგავად შესრულებულიყო და GPU მუდამ დატვირთული ყოფილიყო idle წყვეტების გარეშე რასაც nvidia-ს Maxwell 2,0-ც ვერ შვება.
  12. მე უპირატესობას franco kernel-ს ვანიჭებ. სტაბილურობაში (ამაში სხვა ალტერნატივას ვერც ვხედავ ძალიან მაგარი დეველოპერია ეტყობა) და ავტონომიურობაში. ROM-ს რაც შეეხება ესენი კარგებია http://forum.xda-developers.com/nexus-4/development/rom-saosp-l-t3077183 http://forum.xda-developers.com/nexus-4/development/rom-chroma-03-31-2015-layers-t3069936 http://forum.xda-developers.com/nexus-4/development/rom-liquidsmooth-v3-1-mako-t2616565 (ეს საკმაოდ მომეწონა, სწრაფია ძალიან ამაზე ჩართვა გამორთვა) cyanogen-ც შეგიძლია დააყენო მარა რატომღაც დიდი ხნის მანძილზე მუშაობის მერე ჩემთან მომენტებში ურევს ხოლმე. nightly build-ები მეტი არაფერი გამოსულა. ყოველდღე ანახლებენ მარა ამდენი ხანი რა უბედურებაა არ ვიცი.
  13. არ ვიცი ეგ. მე იქ დაბლა როა მივუთითე i am not from usa და აქაური მისამართი ჩავწერე.
  14. ბიჭებო აქ გაიარეთ რეგისტრაცია და მოიგეთ 5000$-იანი PC რა იცი რა ხდება, იქნებ გაგიმართლოთ https://www.gamingtribe.com/giveaway/maxfury/AMDrules წარმატებებს გისურვებთ ყველას.
  15. ბიჭებო აქ გაიარეთ რეგისტრაცია და მოიგეთ 5000$-იანი PC რა იცი რა ხდება, იქნებ გაგიმართლოთ https://www.gamingtribe.com/giveaway/maxfury/AMDrules წარმატებებს გისურვებთ ყველას.
  16. Man, i am Georgian and we even have 5 letters long word for name of the day after the day after tomorrow It's mazeg ეს დავუპოსტე youtube-ზე სრული ვიდეოს კომენტარად https://www.youtube.com/watch?v=Sj2WItLzEgc
  17. აბა შენ რითი მსჯელობ 770-ს რო ყველაზე მაგარი მატება აქვს DX12-ში? კონკრეტული ერთი DEMO-თი რომელიც არც ვიცი საიდან გადმოვწერო, დადე მაინც აქ ვისაც აქვს Titan ან 770 გაბენჩავს და ნახავს რეალურად რა როგორაა. თუ ვაფშე წერია რაშია დაბენჩილი. მგონი რო მარტო რიცხვები დაწერეს და აგერ კი დაგაჯერეს რო 770-ს მაგარი მატება აქ თურმე. კიდევ ერთხელ გეუბნები და მანდაც უწერიათ რო ჯერ არაა Nvidia-ს მიერ დადასტურებული ეგ ფაქტი და nvidiafan კი ხარ მარა იმინა nvidia და AMD ან სხვა კომპანია სანამ არ იტყვის მანამდე რამდენმაც გინდა მითხრას არ მჯერა. AMD-სკენ გადახრა სად ნახე? დამისვი კითხვა და გიპასუხე რო აქვს მსგავსი ტექნოლოგია მასაც. და ეს რაღაც ხ.ზ. DEMO-ში კი არა არსებულ თამაშში აქვს გამოყენებული DIRT showdown! შენც წერდი მასე რო DX12_ს სრული საპორთი აქვთ კარტებს მარა არაა ეგ მართალი. lasha1616 მართალი გითხრა შენი პოსტი არ წამიკითხავს ბოლომდე ჯერ ამ პოსტს რო დავწერ მერე წავიკითხავ მარა თავიდან რასაც მიყვებოდი ეგ ფაქტები მეც დავდე აქ და ვიკითხე როგორ მოხდა? მარა რატომღაც მაგ ლაპარაკების მერე პასუხის ნაცვლად (ნუ პასუხი რა უნდა ეთქვათ რაც არ იციან, ეგ რეალურად არც არავინ იცის რატო უწერია ეგ FPS-ები) წამოვიდა არიქა შენ AMD-სკენ იხრები და ა.შ. ანუ AMD-ზე შეილება იმას რო ამბობდნენ როცა DEMO-ებიც და ვიდეოებიც დადეს ეგ არაფერია მერე გაირკვევა და ა.შ. და ეხლა Nvidia-მ გამოაგდო რაღაცა ძღინკიანი არც ვიცით რა DEMO-ს ორი ბარათის FPS-ები ასევე ორი AMD-ს ბარათის FPS-ები და არავინ არაფერს კითხულობს ვსო აქ დადასტურებულად ჩაითვალა ყველაფერი Nvidia-ს სასიკეთოდ და მერე მე ვიხრები AMD-სკენ თურმე და ესენი ნეიტრალურები არიან ნეიტრონებივით თან nvidia-ს ბარათები ერთი 1000$-იანია თვითონ და კიდე 1000$-იან პროცესორზე დატესტეს და მეორეც საკმაოდ ძლიერ i5 3570k-ზე რატომღაც ერთი AMD-ს ბარათი ისედაც რო გაცილებით იაფიანია რაღაცა დენიკინის დროინდელ AMD-ს პროცესორზე დატესტეს და მეორე 4 წლის წინანდელ Intel-ს xeon-ზე დაბალი სიხშირით. აი ეხლა კი წავიკითხე და ზუსტად 100%-თ მაგას ვამბობ მეც! დაჟე nvidia-ზე თავად წერენ მისივე დადებულ სტატიაში რო ჯერ არ დაუდასტურებიაო nvidia-სო და მე მიწერენ რომ აი რო ამბობდი არ აქვსო მხარდაჭერაო ხო ქონიაო არაა დადასტურებული არა! გაიგეთ თქვე კაი ხალხო ჯერ თქვენ სათაყვანებელ nvidia-საც არ უთქვამს. რო იტყვის მერე ილაპარაკეთ გესმის ეხლა ვანო არაა ჯერ დადასტურებული და შენივე სტატიაში წერია ეგ და შენ რანაერად მეუბნები რომ აქვსო? ეგ ტექნოლოგია რო ქონდეს დარწმუნებული იყავი რო nvidia მაგის გარეკლამებისგან თავს ნამდვილად არ შეიკავებს. არ ხედავ ისე აქვს კომპანიას საქმე რო მის ნაცვლად მისი მომხრამრებლები უდასტურებენ ტექნოლოგიებს lasha1616 გააიასნე რა ყველაფერი
  18. ვანო წაგეკითხა ცოტა მეტი და ნახავდი რომ ეგ ტექნოლოგიები რო არ აქვს AMD-ს მაინც გააკეთა მსგავსი სხვა გზებით და უკეთეს შედეგს მიაღწია, უფრო მაღალ FPS-ებს და ეს რეალურად გააკეთა თამაშში Dirt Showdown “Raster Ordered Views and Conservative Raster. Thankfully, the techniques that these enable (like global illumination) can already be done in other ways at high framerates (see: DiRT Showdown).” P.S. ნიკი არ შეიცვალო გიხდება ეგ ნიკი
  19. ისეთი კარტა რო სრული მხარდაჭერა ქონდეს არ არსებობს. დაყოფილია DX12-ც რაღაც tier-ებზე ნაწილებად რა და ზოგ კარტას უკეთესი საპორტი აქვს ზოგს უარესი მარა ვაფშე ყველაფერი არცეთს. მდაა. შენივე news_დან გიპასუხებ ისევ As you can see, Maxwell 2.0 does support mixed mode and upto 31 compute queues in conjunction with its primary graphics Queue. No other Nvidia architecture has this capability without involving a complete mode switch. Now this where things get a bit muddy. Since there is no clear documentation, and since Nvidia has yet to release an official statement on the matter, it is alleged (read: not confirmed in any way), სრული DX12-ს მხარდაჭერა არცერთ ბარათს არ აქვს. შენ მაინც შენსას აწვები. მაშინ დამიდე რომელ ბარათს აქვს DX12_ს full support ოღონდ ფაქტებით თორემ უკვე შენივე დადებული news-ს საწინააღმდეგოებს ლაპარაკობ მე კი არა Titan X-ს პატრონებს ეწყინებათ ეგ ძაან
  20. შენივე პოსტიდან გიპასუხებ! 770 maxwell-ია? 770 არის kepler ასე რომ არ აქვს Asynch shaders support! არც maxwell 1.0-ს აქვს! და 2.0-ზე ჯერ დადასტურებულიც არაა! ყველაზე უკეთეს ვარიანტში GTX 950-ს GTX 960-ს 970-ს 980-ს 980 TI-ს და Titan X-ს ექნებათ ეგ დანარჩენს როგორც ჩანს არა. აი AMD-სკენ კიდე 7XXX სერიიდან მოყოლებული ნებისმიერ ბარათს აქვს ეგ ტექნოლოგია LOL ცოტა ლოგიკური ტესტი მაინც გაეკეთებინათ Nvidia Test 1: Core i7 5960X + Geforce GTX Titan XDX11: 45.7 fpsDX12: 42.7 fpsNvidia Test 2: Core i5 3570K + Geforce GTX 770DX11: 19.7 fpsDX12: 55.3 fps ეს რა არი ანუ გადააგდეთ TiTan X_ები და იყიდეთ 770-ებიო
  21. ეხლა აღმოჩნდება რო ეს იყო ფსიქოლოგიური ტესტი და ორივე ერთია
  22. რა კონტექსტიდან ამოვარდნილი წინადადებაა...
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.