-
Posts
1717 -
Joined
-
Last visited
-
Days Won
19
Content Type
Profiles
Forums
Events
Everything posted by lasha1616
-
thunderbolt–ის და DisplayPort–ის ერთმანეთში შედარება მთლად სწორი არ გამოვა, რადგან thunderbolt ინტერფეისი ინფორმაციის გადაცემას ახერხებს PCI-E პროტოკოლის საშუალებით, ხოლო ვიდეო სიგნალებს DisplayPort 1.2 პროტოკოლის საშუალებით. thunderbolt v3–ს ვიდეო სიგნალის გადაცემა შეუძლია მაქსიმუმ დასაშვები 17.28 Gbit–ით წამში. ამაზე მეტს იგი ვერანაირად ვერ გაატარებს, იმიტომ რომ არის DisplayPort 1.2 ვერსია, DisplayPort 1.2 პროტოკოლით მაგაზე მეტს არ ატარებს. შესაბამისად thunderbolt v3 და DisplayPort 1.3 სხვადასხვა შედარებები გამოდის. და თუ მაინც შევადარებთ მაშინ thunderbolt v3–ის ვიდეო სიგნალის გადაცემის შესაძლებლობა ორჯერ ნაკლებია DisplayPort 1.3–თან შედარებით. თუ შენ thunderbolt v3–ში მის ყველა lane-ების სიჩქარეებს შეაჯამებ და ისე შეადარებ მხოლოდ DisplayPort 1.3–ს, მაშინ რათქმაუნდა სრული thunderbolt v3–ის სიჩქარე გადააჭარებებს DisplayPort 1.3–ის გამტარუნარიონობის სიჩქარეს, მაგრამ ამით რა? ეს მაინც არასწორი შედარება გამოდის, სადაც PCI-E–ს გამატრობას ემატება DisplayPort 1.2–ის ვიდეო სიგნალების გამტარობა, ადარებ მხოლოდ DisplayPort 1.3–ის გამტარობას... PCI-E–ის სიჩქარე რტომ უნდა შეადარო DisplayPort–ს რომელიც ვიდეო ინტერფეისია? ამიტომ ვამბობ რომ არასწორია ესეთი შედარება თქო. DisplayPort არის ყველაზე უნივერსალური ვიდეო ინტერფეისი, რაც კი დღემდე შექმნილა. ყველაზე ჩქარი და დიდი პოტენციური შესაძლებლობებით. DisplayPort 1.2 ვერსია გამტარობით მაინც აღემატება HDMI 2.0 ვერსიას. ხოლო DisplayPort 1.3 ვერსია თითქმის ორჯერ აღემატება გამტარობით HDMI 2.0 ვერსიას. აღარეფერს ვამბობ რა უპრიატესობები გააჩნია DVI და VGA ვიდეო ინტერფეისებთან. პროფესიონალ ვიდეო ბარათებს როგორიცაა მაგალითად FirePro სერია, 6 ცალი მარტო DisplayPort აქვს, რაც იმას ნიშნავს რომ DisplayPort ყველაზე კარგი ვიდეო ინტერფეისია, სხვა ყველა დანარჩენებთან შედარებით. რატომ შეგეშალა, სწორი ყოფილხარ DisplayPort 1.3–ს შეუძლია წამში 4 GB–ის გატარება. thunderbolt v3 სახელად ჰქვია თორემ, ამ გამტარობას უზრუნველყოფს PCI-E 3.0-ის 4 ცალი lane (4 lanes of PCI Express Gen 3), რომელიც წამში 5 GB–ს ატარებს. ამას დაუმატე აბა DisplayPort 1.2–ის 8 ცალი lane–ები (8 lanes of DisplayPort 1.2), რომელიც უდრის წამში 2 GB–ს. სულ გამოდის რომ thunderbolt 3–ს შეუძლია მაქსიმუმ 2 GB/sec გამოიყენოს ვიდეო გამოსახულების გადასაცემად, ხოლო მაქსიმუმ 5 GB/sec ინფორმაციის გადასაცემად. შენ თუ ამ ყველაფერს შეკრიბავ (5+2=7 GB) და გაუტოლებ DisplayPort 1.3 ვერსიას რომელიც 4 GB წამით მუშაობს, მაშინ რათქმაუნდა 4<7, მაგრამ ამით რა? რას ვამტკიცებთ ამით? მემგონი არც არაფერს. thunderbolt ტექნოლოგიაზე რასაც მოიგონებენ ეს იქნება USB ბლუთუსი, USB ხმის ბარათი, USB ქსელის ბარათი, USB card reader, USB დამტენი, გარე ვინჩესტერი, USB HDMI და ა.შ. ეს ყველაფერი დაიყვანება ორ პროტოკოლზე PCI Express და DisplayPort–ზე. ვიდეო გამოსახულება, ხმის გამოსახულება, ინტერნეტის სიგნალები და ა.შ. ეს ყველანაირი სინგალი thunderbolt ინტერფეისში მუშაობს ორ პროტოკოლში. ეს ორი პროტოკოლი უზრუნველყოფენ ინფორმაციათა გაცვლა–გამოცვლას სხვადასხვა მოწყობილობებს შორის. USB პორტი ამ შემთხვევაში არის მხოლოდ ადაპტერი thunderbolt–სა და კონკრეტულ მოწყობილობას შორის, რომლის გამოყენებითაც ხდება ინფორმაციების კონვერტირება. თნდაც VESA–მ 1 წლის წინათ (2014 სექტემბერს) DisplayPort–ის თავსებადობის სტანდარტი ჩამოაყალიბა USB Type-C–ზე, ანუ DisplayPort–ი იმუშავებს USB Type-C–ზე, ისე რომ ვიდეო სიგნალი უპრობლემოდ გაივლის შგნით. თუ DisplayPort იმუშავებს USB Type-C–ზე ეს იმას ნიშნავს რომ thunderbolt-იც ავტომატურად იმუშავებს USB Type-C–ზე. როგორც ვხედავთ USB Type-C–ის საშუალებით შესაძლებელია როგორც დენის, ინფორმაციის, ასევე ვიდეო სიგნალების გადაცემა. ცუდი ისაა რომ ესეთი უნვიერსალური ტექნოლოგია ძალიან ძვირია და მხოლოდ ულტრაბუქები და ვორქსთეიშენები თუ გამოიყენებნ ასეთ საშალებებს, სადაც დრო ფულია. ჩვეულებრივ მომხარებელს USB 3.0–იც დააკმაყოფილებს.
-
კარგი თემაა, თუმცა შესწორება დაჭირდება მაინც ამ თემას. უფრო კონკრეტულად რომ ჩამოვაყალიბოთ თუ რაარის ეს ინტერფეისი, ჯობია დავიწყოთ საფუძვლებიდან. Intel-მა შექმნა Thunderbolt და მისი ინტერფეისი შედგება გარკვეული ტიპის პროტოკოლებისაგან, რომლებსაც შეუძლიათ გადასცენ ციფრული სიგნალები და დენი. ბოლო ვერსია Thunderbolt v3 როგორც ვიცით იყენებს შემდეგ პროტოკოლებს, ესენია: PCI Express 3.0 და DisplayPort. PCI Express შექმნილია Intel, Dell, HP და IBM-ის ერთობლივი პროექტით. PCI Express ეს ის ინტერფეისია რომელიც ემსახურება და კვებით უზრუნველყოფს, ხმის ბარათს, ვიდეო ბარათს, ქსელის ბარათს და ა.შ. Thunderbolt ინტერფეისი რადგან PCI Express 3.0-ის პროტოკოლს იყენებს, ამიტომ Thunderbolt-ის ინტერფეისში კვება და ციფრული სინგალების გადაცემა იგივე პრინციპით ხდება როგორც ჩვეულებრივ მაზერზე PCI-E სლოტებში. რაც შეეხება გამოსახულების ციფრულ სიგნალებს, აქ Thunderbolt v3 იყენებს DisplayPort 1.2 ვერსიას. თავად DisplayPort შექმნილია Video Electronics Standards Association (VESA)-ს მიერ. intel-მა აიღო ნებართვა VESA-სგან და გამოუშვა Thunderbolt v3 ინტერფეისი DisplayPort 1.2-ის მხარდაჭერით. ასევე უნდა აღინიშნოს რომ, DisplayPort პირველი ვიდეო ინტერფეისია რომელიც სიგნალებს აგზავნის მიმდევრობით (serial) რეჟიმში პაკეტებად. სწორედ ასე მუშაობს დღეს Ethernet, USB და PCI Express ინტერფეისები. ეს იმას ნიშნავს რომ DisplayPort-ს აქვს იმის პოტენციალი რომ გახდეს Thunderbolt-ის ანალოგი, რადგან მასაც შეუძლია იგივე ფუნქციების შეთვისება, რასაც Thunderbolt ითვისებს. ახლა გადავხედოთ შეცდომას, ქვემოთ ხაზი რასაც გავუსვი, ეს არასწორია. დავიწყოთ სიჩქარეებით. Thunderbolt v3-ის გამტარობა შეადგენს 40 Gbit-ს წამში, ხოლო DisplayPort 1.3-ის გამტარობა 32.4 Gbit-ს წამში. აბა საიდან გამოდის მინიმუმ ორჯერ სწრაფი? 2-ჯერ სწრაფი არა, 0.81-ჯერ სწრაფი გამოდის. ასევე შედარება მანდ არასწორადაა დასმული, Thunderbolt ინტერფეისში შედის როგორც თავად DisplayPort 1.2 ასევე PCI Express 3.0-ის ოთხი ცალი lane (4 lanes of PCI Express Gen 3). DisplayPort 1.3 ვერსიას თუ 32.4Gbit გამტარობა აქვს წამში, DisplayPort 1.2 ვერსიას მისი ნახევარი ანუ 17.28 Gbit წამში. შესაბამისად თუ Thunderbolt-ს ადარებ, მაშინ საქმე პირიქით გვაქვს, DisplayPort 1.3 ზუსტად ორჯერ აღემატება Thunderbolt-ს ვიდეო გამოსახულების გადაცემაში. თემა კარგია, წვალებაც დასაფასებელია თუმცა, უმჯობესია კიდევ უფრო კარგად გავაანალიზოთ თემის არსი და მერე გამოვაცხოთ თემები.
-
AMD Radeon R9 Fury X Video Cards in 4-way CrossFire at 4K როგორც დაწერეს, ყველაზე კარგია 2 ცალი fury x რადგან 4 ცალის შემთხვევაში ყველა თამაშში სკალიებას არ იძლევა მესამე და მეოთხე ბარათები. სადაც სკალირება ოთხივე ბარათს ჰქონდა, სკალირების პროცენტი საკმოდ მაღალი იყო. P.S. 4 ცალი Fury X 2600 $ გამოდის
-
სიმპატიური გაგრილებაა. ფაქტიურად ერთი ხმის ბარათის ზომაა. ლამაზი ქეისები აიწყობა ისე ამით...
-
დაბალ სიხშირეებზე მუშაობს და ამიტომ არის დაბალი FPS. ეგ მოცუცქნული გაგრილებაა მიზეზი. როგორც კი აცდება 75 გრადუსს, სიხშირეებს აგდებს. ეს მოსალოდნელიც იყო, თუმცა NVIDIA გამოუშვებს შემდეგ თაობაში ნანოს კონკურენტს და ვნახოთ იქ რა სიტუაცია იქნება. HBM2–ზე გადასვლა ძვირიცაა რადგან ძვირია ასეთი მეხსიერებების დამზადება. ამას სჭირდება შედარებით გრძელი და ძვირიანი დამზადების ტექნოლოგია რაც GDDR5–ისგან განსხვავებით ორჯერ ან სამჯერ ძვირიც შეიძლება იყოს. ნვიდია სხვათაშორის უფასოდ მიიღებს HBM მეხსიერების მხარდაჭერას, როგორც AMD–მ განაცხადა ის ყველასათვის უფასო იქნებაო. ამით მის სტანდარტიზაციას შეეცდებიან და მასიურად გადავა უკვე საშალო სეგმენტის ბარათები რამდენიმე წლის მერე.
-
ვიდეო კარტის ფუნქცია მარტო თამაში როდია, ეს რევიუ ეხება compute გამოთვლებს AMD Radeon Fury X: Potential Supercomputing Monster? CPU vs GPU Scientific Results Financial Results
-
AMD–ს 300 სერიაში ახალი ბარათი მხოლოდ Fury და Fury X–ია, დანარჩენი რებრენდირებული 200 სერიაა რომელიც NVIDIA–ს 700 სერიის კონკურენტებია. შესაბამისად NVIDIA–ს კონკურენტი დღეს Fury და Fury X–ია, რომლებსაც თავიანთი გვირგვინი ჯერ არ დაუხურავთ თავზე, ჯერ უბრალოდ ამის დრო არ მოსულა. იმიტომ რომ AMD–მ DX11–ზე არ იმუშავა, არ დაუხარჯია რესურსი იმისათვის რომ DX11–ში თავი გამოედო, მათ ეს რესურსი მოახმარეს DX12-ს. რაც შეეხება NVIDIA-ს, ფაქტი ფაქტად რჩება, რაზეც მან აშკარად იმუშავა ესაა DX11, ეს სწორედ დღევანდელი დღეა. დღეს უნდა იყოს პირველი. დღევანდელი პირველობაა მისი უპირველესი საზრუნავი. მერე გავა 1–2 წელი და AMD ჯობნის. ასე არაა? სადარის უძლეველი 680? 780Ti? გავა გარკვეული დრო და 980Ti–ც შეუერთდება მის წინამორბედებს. HD 7970 დღესაც მაღალი დონის ვიდეო ბარათია, იგივე 290X, Fury X კი შემდეგი თაობის ფლაგმანია. გამოსვლის დროს 680 ხომ ძლიერი იყო მის კონკურენტებთან? ამიტომ ხალხმა წავიდა, იყიდა და იყო გახარებული, იმ იმედით რომ მომავალი 2–3 წელი ხელს არ დააკარებდა ბარათს. გამოსვლის დროს 780Ti ხომ იყო ძლიერი მის კონკურენტთან? აქაც იგივე მოხდა, ხალხმა წავიდა და იყიდა, ეგონა რომ მომავალი 2–3 წელი ხელს არ დააკარებდა ვიდეო ბარათს... აი ეხლაც იგივე მეორდება ვერ ატყობ? იგივე არგუმენტები მოგაქვს რაც GTX 680 და GTX 780Ti–ის გამოსვლის დროს იყო. ამბობ რომ, TITAN X–ის დონის კონკურენტი ბარათი არ არსებობსო. ხალხიც რა ბედნიერი და კამყოფილია, ყიდულობს ვიღაც TITAN X–ს, გახარებული და ზე ამაყია რომ მას აქვს ეს ცხოველი ვიდეო ბარათი. ამ დროს კი ეს ბედნიერება სამწუხაროდ დროებითია და არც ისე ხანგრძლივი, იმიტომ რომ ისევ NVIDIA იკიდებს თავის მომხმარებლებს და ისევ NVIDIA–ს მახეში ებმევა ხალხი. ხალხი ზომბებად არიან გადაქცეულები, ბრმად, დღევანდელი დღით რომ წყვიტავენ ყველაფერს... გავა 1 წელი და მერე სადღაც უკვალოდ ქრება დიადი NVIDIA–ს სიძლიერე, რატომ ემართება ასე? რატომ არის ყოველთვის გარდამავალი NVIDIA-ს უპრატესობა? რატომ არ შეუძლია გვაჩვენოს კლასი და რატომ არ შეუძლია სამუდამოდ ლიდერი დარჩეს? რატომ აძლევს AMD–ს ამდენის უფლებას? რატომ არ შეუძლია ერთხელ და სამუდამოდ მოიქცეს ისე როგორც ინტელი იქცევა და გახდეს აშკარა დომინანტი? თუ ის საკმარისია თქვენთვის რომ დღეს გქონდეთ N1 ვიდეო ბარათი და 1-2 წელში თავიდან მოსაშორებელი გქონდეთ, კი ბატონო, ესეც თქვენი ნებაა, არავინ არაფერს გაძალებთ.
-
AMD-ს როგორც ასეთი ფირმა, განსხვავებული მიმართულება უჭირავს ვიდრე NVIDIA-ს. მომავლის დაგეგმარების სხვადასხვა ხედვები აქვთ, სხვადასხვა მიზნები. მაგალითად DX 12 nvidia-სთვის ახალი ხილი აღმოჩნდა, როდესაც AMD-ს Mantle ჰქონდა შექმნილი, ეგ იგივე DX 12-ი იყო. რომელი უფრო წინ დახედული და მომზადებული აღმოჩნდა ტექნოლოგიურად? AMD ფაქტიურად Microsoft-ს არც კი დალოდებია, ის შედეგები რასაც ახლა დებს AMD DX 12-ში, ასეთ შედეგებს Mantle-ში დებდა. გარდა ამისა AMD-ში HBM მეხსიერებაზე 7 წელი მუშაობდნენ. ამ დროს NVIDIA რას უშვებდა 2008 წელს თქვენ უფრო უკეთ იცით. AMD-მ ასევე შემნქა FreeSync რომელიც სრულიად უფასოა მომხარებელებისათვის (აბა NVIDIA ამ შანსს ხელიდან როგორ გაუშვებდა ისე რომ ფული არ გაეკეთებინა). ღარიბმა AMD-მ მთელი ეკოსისტემა ჩამოაყალიბა ამ ხნის განმავლობაში და ის ფუნდაემნტური ტექნოლოგიები განავითარა რაც დღეს მილიარდელ NVIDIA-ს არააქვს. დავანებოთ თავი 900 სერიას და ავიღოთ 700 სერიამდე NVIDIA ვიდეო ბარათები. მეტი FPS ჰქონდა და ფიზიკა. სხვა რა იყო რითაც AMD-ს სჯობდა? ამის გამო იყო N1 და რათქმაუნდა ხალხი კმაყოფილი იყო ამით, რადგან ჰქონდათ "საუკეთესო" ვიდეო ბარათი, ხალხი ამიტომაც იხიდიდა ძვირს. ეს ორი ფაქტორი იყო რითაც NVIDIA-მ ამოიყიდა სრული სამოდელო რიგი მთელ მსოფლიოში და დაიპყრო უდიდესი ნაწილი. (აქედან რამდენმა რეკლამით იყიდა, ისე რომ ვიდეო ბარათების აზრზე არ იყო ეს ცალკე საკითხია). დღეისათვის NVIDIA-ს უპირატესობა წამოსულია სწორედ იმ ძველი სტერეოტიპული უპირატესობით რაც ადრე ჰქონდა მას. ასე არაა? NVIDIA-ს მომხმარებლებს რომ ჰკითხოთ დღეს რომელ ვიდეო ბარათს იყიდიო, აბსოლიტური უმრავლესობა ისევ NVIDIA-ს იტყვის, რადგან 90-95% დარმუნებულია რომ დღესაც იგივე სიტუაციაა როგირც ადრე იყო. ავიღოთ ორი ვიდეო ბარათი, HD 7970 და იმ დროინდელი GTX 680. ჩამოვთვალოთ ამ ორი ვიდეო ბარათის ტექნოლოგიები, ჩამოვთვალოთ რა უპირატესობები გააჩნია. მერე დღევანდელი დრაივერებით დაიტესტოს ორივე და დავდოთ საბოლოო შეფასება, შემდეგ ამ რეზულტატის საუფძველზე შევაფასოთ ბრენდი, რომელია უკეთესი დღეს, AMD თუ NVIDIA? ამის თქმის საფუძველს რა გაძლევს? ის რომ NVIDIA-ს DirexcX 11-ში ცოტა მეტი FPS და ფიზიკა აქვს? ეს სწორედ ის არგუმენტია რომლითაც NVIDIA-მ ამოყიდა სრული სამოდელო რიგი წლების განამვლობაში და ასეთი სტერეოტიპი დაიმსხვრა მას შემდეგ როდესაც Mantle შეიქმნა და საბოლოოდ DX 12-მა დაუსვა წერტილი. ამიტოა დღეს ეს ბუმებრაზი N1 ბრენდი NVIDIA რომ იჭინთება, აღარ იციან საიდან გააჩინოს მეტი FPS-ები DX12-ში. FURY X არის AMD-ს ტექნოლოგიური ზენიტი, ტექნოლოგიური პიკი! ამაზე უძლიერესი GPU DX12-ში არ არსებობს! და ამას ცოტახანში ყველა დავინახავთ. რომელიც გათვლიალია სწორედ DX 12-ზე და ეს Mantle-ს ბაზაზე მოხდა. ცოტახანში გამოვა FURY X 2 ცალი GPU-თი, მერე DX12-ში გაერთიანდება 4+4 GB და გამოვა 8 GB. ასე რომ 4 GB ლიმიტი კროსის შემთხვევაში აბსოლიტურად მოხსნილია. ასევე მორჩა ყველანაირი DX11-ის ხანა საბოლოოდ. AMD-ს "ფსონი" DX-12 დევს უკვე დიდი ხანია და ამას ხალხი მალე მიხვდება. FURY X-ის ფასი კი ასეთი მაღალი ტექნოლოგიებით საერთოდ არ მეძვირება, მე ვთვლი რომ AMD უფრო ლმობიერად მოექცა ხალხს როცა ის ფასი დაადო რაც 980Ti ღირს დღეს. დარმწუნებული ვარ ეს რომ NVIDIA-ს ბარათი ყოფილიყო 1000 დიკარზე ნაკლები არ ეღირებოდა. ასევე ის ყველა ბენჩი და თამაში რაც DX11-ში გატარდა, რა არგუმენტითაც იჩაგრება FURY X, ჩავთვალოთ რომ NVIDIA-ს დაუთმო ლიდერობა, რადგან მისი ისტორია DX12-დან დაიწყება, FURY X არ არის ის ბარათი რომ "ძველ" XD11-ში რეკორდები დაემყარებინა როცა DX12 კარზე იყო მომდგარი. ის სრული გეგმა რაც AMD-მ დაგეგმა ჯერ არ დამდგარა და სულ მალე ვიხილავთ როგორც AMD გვპირდებოდა. ჯერ კიდევ დროა, დაველოდოთ AMD-ს გამოსაშვები აქვს საბოლოო ფლაგმანი და რამდენადაც მე ვიცი AMD-ს DUAL GPU ბარათები ყოველთვის ჯობდნენ მის კონკურენტს და არაერთ საიტზე მიანხავს ასეთი შედარებები. ამ ყველაფრის მერე, ამდენი არგუმენტის მერე კიდევ AMD-ს აქვს დასაწევად საქმე? მემგონი პირიქით, ეს NVIDIA უნდა დაეწიოს AMD-ს და საერთოდ, რაც AMD იყო 3-4 წლის უკან, ესენი ჯერ მაქამდეც არ არიან მისულები.
-
როგორც ბოლოს ირკვევა, NVIDIA-ს მოუწევს სოფტის ხარჯზე აანაზღაუროს ის დანაკლისი რასაც AMD hardware დონეზე აღწევს ამას. სოფტის ოპტიმიზაციით, როგორც გეიმ დეველოპერების მხრიდან, ასევე ნვიდიას მხრიდან, ასე თუ ისე მაქსიმალურად შეეცდებიან თამაშის მორგებას NVIDIA-ს ვიდეო ბარათებისთვის, მაგრამ საინტერესოა ძველ სერიებში რა სიტუაცია ექნება 600-700 სერიას. გააჩნია ასევე თამაშის პროგრამულ მხარეს. თუ ისეთი თამაშია სადაც ასინქრონული შეიდერების გამოყენება არ მოხდება, მაშინ ასინქრონული შეიდერების არსებობას აზრი არააქვს ასეთ თამაშში. ამ ეტაპზე ასეთი სიტუაციაა და ვნახოთ საბოლოოდ, ამით არ წყდება ყველაფერი. მომავალში კიდევ ახალ ტექნოლოგიას შემოგვთავაზებენ როგორც NVIDIA ასევე AMD. P.S. ტექსტი წაიკთხეთ, მართლა სასაცილოა
-
http://www.isunshare.com/windows-password/dell-administrator-bios-password-reset.html http://smallbusiness.chron.com/reset-forgotten-dell-administrator-bios-password-51830.html აბა ესენი სცადე.
-
1–2 კვირის წინ მე მომიტანეს ასუსის ნოუთბუქი. ბიოსზე ედო პაროლი და საერთოდ არ ირთვებოდა ვინდოუსი. კი ვნახე ბიოსზე პაროლის მოხსნის ხერხი მაგრამ, აუცილებელი პირობა იყო რომ დრო უნდა გადმომეწია უკან. დროს უკან როგორ გადმოვწევდი როცა ბიოსზე პაროლი ედო, ვერც ბიოსში შევდოიდი და არც ვინდოუსი არ იტვირთებოდა? შემთხვევით მესამე ცდაზე ავკრიფე 1234 და არ ჩაირთო ? მერე დროც გადმოვწიე უკან. ბიოსზე პაროლიც მოვხსენი და ყველაფერი გამოვიდა... თურმე ასუსის ბიოსს ორი რეჟიმი ჰქონია. ერთია Administrator password ხოლო მეორე Guest password. ეტყობა ჩემ შემთხვევაში ადმინისტრატორის პაროლი ედო. იმიტომაც არ ირთვებოდა ვინდოუსი. შენ შემთხვევაში რა ხდება? როცა ბიოსში შედიხარ მაშინ გიწერს პაროლი შეიყვანეო? ანუ თუ ბიოსში არ შეხვალ უპრობლემოდ ჩართავ ვინდოუსს?
-
Sony Xperia Z5 Compact, Z5 და Z5 Premium With 4K Display
lasha1616 replied to Barca's topic in მობილური სამყარო
მერამდენედ ანვითარაბენ ამ კამერას... რით ვერ დაასრულეს რით ვერ მიაღწიეს საბოლოო სრულყოფილებას... ყოველ თაობაში ახალი კამერის სენსორი აქვს, კი კაია მაგრამ იმდენს აქებენ რომ რეალურად შეიძლება ვერც კი იგრძნო სხვაობა მის წინა მოდელებისგან განსხვავებით. თან ეს 4:3 რა შეფარდებაა საშინელებაა მეზიზღება... FHD მონიტორს რომ არ ავსებს სურათი, ძალიან მაღიზიანებს. ვიღას უდგია 4:3 მონიტორი... გააკეთონ ისეთი კამერის სენსორი რომელიც 16:9–ს გადაიღებს, პიქსლების მოცილების გარეშე... 4K 30@fps – ამ დროს 1 წუთიანი ასეთი ვიდეო ალბათ 1 GB–ს ცდება დანარჩენი ყველაფერი კაია და მომწონს. ერთ–ერთი გამორჩეული, დახვეწილი და ლამაზი სმარტფონია -
შენ შემთხვევაში პაროლი ხომ BIOS–ზე ადევს? და ნოუთბქს მაინც რთავ? ანუ ვინდოუსი იტვირთება?
-
ჰო თავიდან მეც რომ ვნახე, ძალიან დავიბენი, სად ერთი პროცესორი და სად მეორე... რა ტიპის შედარებაა ვერ მივხვდი. ეს დაბნეულობა იმითაა გამოწვეული რომ, წინა გვერდზე ბოლომდე არ/ვერ დაკოპირდა ბოლომდე ყველაფერი. ის მთავარი ახსნა განმარტება, ვინც ეგ ინგლისური სტატია დაწერა აი ესაა http://wccftech.com/nvidia-amd-directx-12-graphic-card-list-features-explained/4/ Ashes of the Singularity აი ამ დემოზეა საუბარი და აქედანაა ეგ შედეგები http://wccftech.com/ashes-singularity-alpha-dx12-benchmark/ სხვადასხვა რეზოლუციაზეა ეს ბენჩები ჩატარებული. მეც სწორედ ამ ინფორმაციის კიდევ უფრო გასაგებად გამოვაცხვე წინა პოსტი thx. ვნახოთ ვნახოთ, თამაში როცა საბოლოოდ გამოვა, რათქმაუნდა მაქსიმალურად იქნებიან ოპტიმიზირებულებ ორივე ბარათზე, თუმცა მარტო ეს თამაში ხომ არაა. კიდე უამრავი გამოვა და ვნახავთ დროთა განმავლობაში რომელს უფრო მეტი უპირატესობა ექნება. არამგონია AMD-ს NVIDIA-ზე ნაკლები გათვლა ჰქონოდა გაკეთებული როცა ფუნდამენტუად დაიწყო ტექნოლოგიების განვითარება. AMD-ს წარმომადგენელმაც თქვა, ეს ჰგავდა ჭადრაკის თამაშსო, საჭიროა რამდენიმე სვლა, გარკვეული დრო და შედეგმაც არ დააყოვნა. მართალია დროშ გაიწელა (ბაზრის წილიც შეუმცირდა) მაგრამ ახლა უფრო კარგ სიტაუციაშია ვფიქრობ.
-
თუკი NVIDIA-ს სამოდელო რიგს ავიღებთ, mid range ბარათები ზუსტად ეგენია, სამოდელო რიგის შუაშია პირდაპირ. პერფორმანსი გასაგებია რომ დაბალი აქვს, ამაზე არ არის საუბარი, სამოდელო რიგით mid range სეგმენტში გადის. რაც შეეხება პერმონანსს და წარმადობას როგორც ახსენე, ეს პირობითია და მუდმივად ცვალებადი სიდიდეა. ადრე GTX 680 ხომ იყო high end ბარათი? დღეს ალბათ GTX 960-ის დონეზეა არა? მაგრამ მიუხედავად ამისა GTX 680-ზე ვერ იტყვი რომ low end ბარათია, როცა high end ბარათი იყო, 3-4 წლის მერე low end ბარათად როგორ გადაიქცეოდა? ამიტომ წარმადობის მიხედვით (მიუხედავად იმისა რომ დაძველდა) შეუცვალო ვიოდეო ბარათს მისი სამოდელო რიგი სწორი არ იქნება. =============================================================================================== აქვე უნდა განვიხილოთ აუცილებლად არაერთი ყოვლად მნიშვნელოვანი საკითხები რაც DX 12-ისა და ასინქრონული შეიდერების შესახებ იქნება. გადავხედოთ იმ ტესტს რაც აქ იყო მოყვანილი: Nvidia Test 1: Core i7 5960X + Geforce GTX Titan XDX11: 45.7 fpsDX12: 42.7 fpsNvidia Test 2: Core i5 3570K + Geforce GTX 770DX11: 19.7 fpsDX12: 55.3 fpsAMD Test 1: Athlon X4 860K + Radeon R7 370DX11: 12.4 fpsDX12: 15.9 fpsAMD Test 2: Xeon CPU E3-1230 + Radeon R9 FuryDX11: 20.5 fpsDX12: 41.1 fpsამ ბენჩმარკის მერე ჩნდება ლოგიკური კითხვები და მოდი ჩამოვწეროთ და გავცეთ პასუხი სათითოდ: კითხვები: რატომ აქვს Titan X-ს FPS-ის ვარდნა DX 12-ზე DX 11-თან მიმართებაში?რატომ აჯობა GTX 770-მა Titan X-ს? როგორ შეიძლება ეს ანომალია მომხდარიყო?რატომ ვერ დადო Radeon R7 370-მა უფრო მაღალი FPS DX12-ზე თუკი ასინქრონული შეიდერები აქვს? 3 FPS-ის მეტი სხვაობა არ მოაქვს ასინქრონულ შეიდერებს?რატომ ვერ დადო Radeon R9 Fury-მა GTX 770-ზე მეტი FPS? ან რატომ აქვს თანაბარი შედეგი GTX Titan X-თან მიმართებაში? რატომღაც ავტორის მიერ დაწერილი ტექსტი აღარ დაკოპირდა წინა გვერდზე, თუმცა მე დავაკოპირებ და განვიხილოთ უფრო დაწვრილებით. როგორც ავტორი წერს ამ ბენჩმარკის შინაარსია:These benchmarks were mostly taken at face value and the usual frame war erupted over the raw value of these numbers. The problem is, when taking about an API that eliminates overhead, we need to look at the context as well. In both AMD tests, the numbers seem to rise, but that is because in the first test, the processor is obviously a bottleneck so the configuration had alot of untapped potential. In the second test, the processor was once again an arguable bottleneck, since Xeons are clocked pretty low. In the second Nvidia test, DX12 also performs as expected, when coupling a reasonably powerful GPU with a decent processor. In all these three scenarios, the bottleneck of the processor was eliminated. The actual anomalous test is the first one. With the incredibly powerful CPU and incredibly powerful GPU. Theoretically, this configuration has very little bottleneck – if any. DirectX 12 wouldn’t have yielded any major performance increase because the configuration is already very much near its maximum potential. But the funny thing is, switching to DX12 actually results in a lowered value than before. That is something, that shouldn’t have happened. To understand just what is going we need to look at what was happening behind the scene. დავიწყოთ NVIDIA-დან და გავცეთ პირველ და მეორე კითხვას პასუხი 1. Titan X-ის შედეგი, ეს არის "ანომალია", უძლიერესი პროცესორი და უძლიერესი ვიდეო ბარათი, თეორიულად არანაირი ლიმიტი და bottleneck არააქვს ამ კონფიგურაციას. აქ DX 12-ს უნდა ეთქვა თავისი სიტყვა მაგრამ მოხდა ის რაც არ უნდა მომხდარიყო. შედეგი უარესი აღმოჩნდა არათუ ოდნავი მატება. სასაცილოა მაგრამ ფაქტი ფაქტად რჩება, DX 12-მა Titan X-ისთვის ცუდი შედეგი აჩვენა. ამ ყველაფერზე პასუხი რომ გავიგოთ საჭიროა ჩავიხედოთ კიდევ უფრო ღრმად, მაგრამ ავტორი ამაზე მეტს არაფერს წერს.2. რაც შეეხება GTX 770-ს აქ DX 12-მა იმუშავა ისე როგორსაც მოველოდით. აჩვენა ის უპირატესობა რაც DX 12-ს უნდა ეჩვენებინა. შედარებით ძლიერი GPU-თუ და პროცესორით, მივიღეთ საგრძნობი FPS-ის მატება. აქაც არ არის არანაირი bottleneck-ი. თუკი დავაკვირდებით AMD-ს ვიდეო ბარათების ტესტებს, თვალნათლივ ჩანს რომ DX 11-დან ორივე ვიდეო ბარათს აქვს მატება, მაგრამ მატება Radeon R7 370-ის შემთხვევაში ძალიან ცოტაა ანუ +3 FPS. Radeon R9 Fury-ის შემთხვევაში კი FPS გაორმაგდა. გავცეთ ახლა პასუხი მე-3 და მე-4 კითხვებს. 3. Radeon R7 370 დაიტესტა სუსტ პროცესორზე Athlon X4 860K, ამ პროცესორმა ვერ უზრუნველყო ვიდეო ბარათის ბოლომდე "გაწურვა" და აქ მოხდა ის რასაც ვეძახით bottleneck. +3 FPS-ის მეტი ვერ გამოწურა.4. Radeon R9 Fury-მ შედარებით კარგი შედეგი აჩვენა უკეთეს პროცესორზე Xeon CPU E3-1230, მაგრამ ავტორი წერს რომ ამ პროცესორმა მაინც ვერ გაწურა ბოლომდე R9 Fury და აქაც ეს პროცესორი იქცა ვიდეოსთვის შემაფერხებლად ე.წ. bottleneck-ად პროცესორის დაბალი სიხშირის გამო. რომ შევაჯამოთ გამოდის რომ, AMD-ს შემთხვევაში მისი რეალური ასინქრონული შეიდერების წყალობით, ყველა შემთხვევაში აქვს მატება DX 12-ზე, უბრალოდ პროცესორებმა ვერ გაწურა საკმარისად კარგად ვიდეო ბარათები. Fury რომ უფრო ძლიერ პროცესორზე დაეტესტად შედეგიც დარწმუნებული ვარ უფრო მაღალი იქნებოდა ვიდრე 41 FPS Xeon E3-1230 პროცესორით. იგივე ითქმის Radeon R7 370-ის შემთხვევაში. მოკლედ პროცესორის bottleneck-ით აიხსნება ის შედეგები რაც AMD-ს ბარათებმა ანახეს. აქ უფრო საკითხავია რა მოუვიდა NVIDIA-ს ფლაგმანს, რატომ მოხდა ის რაც მოხდა? ამის შესახებ იყო კიდევაც საუბარი მეორე თემაში, როდესაც NVIDIA-ს ჯგუფმა, ოქსიდის გეიმ დეველოპერებს რაღაცა ფუნქციების დაბლოკვა მოსთხოვა ამ ბენჩმარკში. როცა ოქსიდმა უარი უთხრა NVIDIA-ს ბენჩმარკში რაღაც ფუნქციების დაბლოკვაზე, NVIDIA-მ გარკვეული პრობლემა/წნეხი შეუქმნა ოქსიდის ჯგუფს. მე ვვარაუდობ რომ ეს ანომალიური შედეგი რაც TITAN X-მა დადო, nvidia-მ გაიგო და ძალიან არ მოეწონა, სავარაუდოდ ამიტომ მოხდა დაპირისპირება მათ შორის. ოქსიდის დეველოპერი სწორედ NVIDIA-ს მისამართით აგზავნის დაინტერესებულთ თუ რა მიზეზით მოხდა ეს დაპირისპირება. ოქსიდის ჯგუფის ერთ-ერთი გეიმ დეველოპერი წერს რომ, ჩვენ უფრო მეტად NVIDIA-სთან გვქონდა მჭიდრო თანამშრომლობაო და მიუხედავად ამისა მათმა ტოპ ბარათებმა გარკვეულ მომენტებში "fail" განიცადა ამ თამაშშიო. (ციტირება მეზარება უბრალოდ, შემიძლია ამის წყაროც დავდო თუ მოითხოვთ) ამით იმის თქმა მინდა რომ, NVIDIA-ს შეიძლება აქვს ის 31 ცალი პარალელურად გამომთვლელი ბირთვი, შეიძლება იდეაში პარალელურ გამოთვლებს აკეთებს ან არც აკეთებს მაგრამ, ეს ბუნდოვანია, გაურკვეველია, ამის რეალური ფაქტი და მტკიცებულება არ არსებობს დოკუმენტურად, NVIDIA-ს ამაზე ოფიციალური საჯარო საბუთი არ გააჩნია. ამას ამბობს თემის ავტორიც. ერთადერთი რაც უკვე ფაქტია NVIDIA-ს გააჩნია ორი ფუნქცია DX 12-ში რაც AMD-ს არ გააჩნია, ესენია: Conservative Rasterization და Raster Order Views. ამათ გარდა, ჯერ ჯერობით სხვა არანაირი დასაბუთებული ტენოლოგია NVIDIA-ს არააქვს. რაც შეეხება AMD-ს, მისი აშკარა უპირატესობა ცხადია რადგან რეალური ასინქრონული შეიდერები უკვე დიდი ხანია აქვს, რაც DX 11-ში საერთოდ არაფერს არ აკეთებდა. როგორც იქნა მოვიდა AMD-ს დროც, მიძინებული ტექნოლოგიები გამოცცოხლებას იწყებენ. საფინალო შეფასებით კი No hardware vendor can claim 100% support of all hardware features and the differences are usually negligible in nature. If one is deciding by features observable by the end user and gaming experience, the vote might fall in favour of Nvidia with its Feature Level 12_1 support which will allow advanced illumination visual effects in next generation games. That said, there are ways to simulate the effects without much of a performance hit for Radeons as well. If we are talking about performance increase (in terms of untapped potential, not maximum potential) then an argument can be made for AMD with its ASync advantage. თუ ვინმე მოიხიბლება NVIDIA-ს ვიზუალური ხარისხით რაც 12_1-ის წყალობით შეიძლება მოხდეს, მაშინ ასეთი იუზერების ხმა რათქმაუნდა NVIDIA-სკენ გადაიხრება. თუმცა მსგავსი ეფექტების მიღება RADEON ბარათებზეც შეიძლება მოხდეს, არცთუ დიდი რესურსის გამოყენებით. თუკი ჩვენ ვისაუბრებთ პერფორმანსის მატებაზე, იმ რესურსზე რაც შეიძლება გამოიწუროს ბარათისგან, AMD-ს უპირატესობა თავისი ასინქრონული შეიდერების წყალობით, დღეს ნათელი მაგალითია. იმედია ასე თუ ისე ამომწურავად შევაჯამეთ დღევანდელი ვითარება. ვნახოთ რას შემოგვთავაზებენ გეიმ დეველოპერები, როგორ მოარგებენ ოპტიმიზაციას ორივე ფირმის ვიდეო ბარათებზე, ამას ახლო მოამვალში ვნახავთ.
-
ჰო მეც შევატყვე კაია მომწონს
-
იტნელის განყოფილებაში, რომელიღაცა გვერდზე დევს, სადღაც GTX 650/750-ის ფარგლებშია ზოგჯერ. ეგ იმას ნიშნავს რომ GTX 650/750 ვიოდე კარტების ჩათვლით ყიდვას აზრი არააქვს, + 5-10 FPS–ის გამო საშუალო გრაფიკაზე თამაშის გამო ღიირს GTX 650/750 ყიდვა? მემგონი არა, წყალში გადაყრილი ფული გამოვა.
-
ვიდეო ბარათზე მირტყმული სტიკერი DX 12, მომხმარებლებს ჰგონიათ რომ ყველა DX 12–ის ფუნქცია აქვს ასეთ ვიდეო ბარათს. სინამდვილეში ყველა ფუნქცია არ აქვთო. ყველა ბარათს თავისი უნიკალური ფუნქციები აქვს და ამის გამოყენება დეველოეპრებზეა დამოკიდებული. AMD–ს როგორც თავიდანვე ცნობილი იყო არ ჰქონდა Conservative Rasterization და Raster Order Views ფუნქციები, ამაში სიახლე არაფერია, თუმცა ინტელის iGPU–ების განხილვა სიახლეა ნამდვილად. მშვენიერი Support ჰქონია და ალბათ მაგიტომაცაა რომ დღეს მისმა iris pro გრაფიკამ უდიდესი ნახტომი განიცადა ინტელის ისტორიაში. ამით ფაქტიურად მოუსპო NVIDAI–ს და AMD–ს low/mid end ვიდეო ბარათების "ბიზნესი".
-
Nvidia GeForce GTX 980 ti-ს სრული მიმოხილვა
lasha1616 replied to Harmony Lines's topic in NVIDIA (ვიდეო დაფები)
ASUS-ის დიზაინი მემგონი ყველაზე მეტად მომწონს. ცუდი დიზაინი არცერთ ბრენდს არააქ მაგრამ, ვფიქრობ საუკეთესოს ტიტული ალბათ ASUS-ის დიზაინს ეკუთვნის. ვერცხლისფერი ზედაპირით სულ სხვა ეფექტი აქვს -
ეგ მხოლოდ ASUS-ის ბრენდის ნოუთბუქებზე მიდის. მასე გავაკეთე ASUS-ის ნოუთბუქზე და ეშველა მაგრამ, დელს და ყველა სხვა ბრენდს თავისი ინდივიდუალური პაროლები აქვთ. პაროლი სცადე აბა 1234 თუ გამოვა.
-
ერთად დაგვიდია დღეს ეს უფრო ადრე წავიკითხე მარა ფორუმი იყო გამორთული და ვერ დავპოსტე ადრე. Robert Hallock-ის კომენტარი ნახე. AMD-მ ზუსტად ის გზა აირჩია რაც მომავლის ტექნოლოგია იყო. სწორი გათვლა გააკეთა თავიდანვე და ფუნდამენტური განვითარება განიცადა. ხალხს გიჟები ვეგონეთ როდესაც Mantle-ზე ვმუშაობდითო, მხოლოდ ცოტა თუ ხვდებოდა და აფასებდა იმას, რასაც რეალურად ვაკეთებდითო. ამ ტექნოლოგიების წყალობით ნამდვილად შეუძლიათ გაიცინონ რადგან, ეს არ იყო რაღაც უმნიშვნელო სიახლის მოფიქრება, ეს არის ნამდვილი ფუნდამენტური სიახლე, რამაც ხელი შეუწყო DX12-ის გამოსვლას, ხელს შეუწყობს Vulkan-ს და როგორც აღინიშნა LiquidVR-ს.
-
ვინ თქვა რომ NVIDIA-ს DirectX12-ის სრული მხარდაჭერა აქვსო? გეიმ დეველოპერები უკვე მიხვდნენ რომ, დღეს არცერთ ვიდეო კარტას არააქვს სრული DirectX12-ის მხარდაჭერა. განსხვავებით NVIDIA-სგან, AMD-ს არასოდეს უთქვია რომ სრული მხარდაჭერა აქვსო (AMD never claimed full DX12 support on all feature levels with their GCN architecture) http://www.guru3d.com/news-story/amd-there-is-no-such-thing-as-full-support-for-dx12-today.html Robert HallockI feel like people are _finally_ starting to see the chess game we've been playing with GCN, Mantle, Vulkan and DX12. People thought we were crazy for doing Mantle. Few understood the true value and thought we were just screwing around with a silly also-ran API, not realizing or willfully ignoring that we were seeding devs with the knowledge for a paradigm shift in graphics development. Meanwhile: DX12 appeared with the same types of workloads. Then Mantle became Vulkan. Then Mantle powered LiquidVR. And all of them make incredible use of the asynchronous/low-latency resources in GCN. Who's laughing now? რა კომენტარი უნდა გავაკეთო ამის მერე ...
-
AMD–ს FX და APU–ებს რაც შეეხება, მანდ Mantle–ს წყალობით 290X ისეთ შედეგს აჩვენებდა როგორსაც ინტელის პროცესორებზე. Mantle-ს წყალობით დღეს APU–ებს და FX პროცესორებს შეუძლიათ მაქსიმალურად მიახლოებული შედეგი მოგცეს რასაც ინტელი გაძლევს. Mantle–ს გამოშვებით AMD–მ თავის პროცესორებს ამოსუნთქვის საშუალება მისცა. როცა AMD–ს სუსტი პროცესორები ვიდეო კარტებს ვერ წურავდნენ, ახლა მთლად ასეც აღარაა. სადღაც ამის სურათებიც იყო მარა ვეღარ ვპოულობ უფრო დაწვრილებით რომ ნახო... თუ ვინმე იპოვის და დადებს ძალიან კარგი მოკლედ AMD–ს პროცესორები თამაშებში ეხლა აღარ ჩამორჩება ინტელს ისე როგორც აქამდე იყო. Mantle–ს და DirectX 12-ში, ისინი უკვე კარგად იყენებენ ვიდეო კარტის რესურსს, ოღონდ არა DirectX 11-ში. Fury–ს გაწურავს თუ არა არ ვიცი, ტესტები გვიჩვენებს ახლო მომავალში.
-
DirectX 12-ის გამოსვლამდე იყო Mantle. Mantle კი შეიქმნა იმ პრობლემების გამო რომელიც აქამდე არსებობდა. ერთ-ერთი ამ პრობლემათაგანი იყო ის რომ, თამაშის დროს პროცესორები არ იტვირთებოდნენ სრულად. პროცესორის პირველ ბირთვზე მოდიოდა მთელი სამუშაოს 80-90 პროცენტი, ხოლო მეორე ბირთვს რჩებოდა გასაკეთებელი სამშაოს 10-20 პროცენტი. მესამე, მეოთხე, მეხუთე და ა.შ. ბირთვები რჩებოდნენ დაუტვირთავები. სხვა სიტყვებით რომ ვთქვათ, პროცესორის რესურსი რჩებოდა გამოუყენებელი. Mantle-ში და DirectX 12-ში, დაიტვირთება ყველა ბირთვი თანაბრად. ეს იმას ნიშნავს რომ დავალება შესრულდება პარალელურად და გაცილებით ჩქარა, ვიდრე აქამდე ხდებოდა. ასე რომ DirectX 12 მხოლოდ ვიდეო კარტას არ უხსნის ხელ-ფეხს. მნიშვნელოვანია ისიც რომ ამიერიდან კროსი/სლი-ს შემთხვევაში ვიდეო ბარათების ვიდეო მეხსიერება შეიკრიბება და იქნება მაგალითად 2+2=4 GB და არა როგორც DirectX 11-ში იყო 2+2=2 GB
