Magdalena Posted March 26, 2025 Posted March 26, 2025 NVIDIA-მ დააანონსა AI-მოდელები Llama Nemotron რეგულირებადი „ინტელექტის დონით“ NVIDIA-მ დააანონსა Llama Nemotron AI მოდელების ახალი სერია მაღალი წარმადობის მსჯელობის შესაძლებლობებით. Meta-ს პლატფორმების ღია კოდის Llama მოდელებზე დაფუძნებული, NVIDIA-ს მოდელები შექმნილია იმისთვის, რომ დეველოპერები უზრუნველყოს მოწინავე AI აგენტების შესაქმნელი ბაზით, რომლებიც შეძლებენ დამოუკიდებლად ან მინიმალური ზედამხედველობით იმუშაონ დაკავშირებულ გუნდებში მათი მომხმარებლების სახელით რთული პრობლემების გადასაჭრელად. ”აგენტები არის ავტონომიური პროგრამული სისტემები, რომლებიც შექმნილია მსჯელობის, დაგეგმვის, მოქმედებისა და საკუთარი სამუშაოს გასაანალიზებლად და გასაკრიტიკებლად”, - განაცხადა კარი ბრისკიმ (Kari Briski), პროგრამული უზრუნველყოფა Generative AI-ის პროდუქტების მართვის ვიცე-პრეზიდენტმა NVIDIA-ში. „ადამიანების მსგავსად აგენტებსაც სჭირდებათ კონტექსტის გაგება რთული მოთხოვნების ჩასაშლელად, მომხმარებლის განზრახვის გასაგებად და რეალურ დროში ადაპტაციისთვის“, - აღნიშნა მან. Llama-ს საფუძვლად გამოყენებით NVIDIA-მ მოახდინა მოდელის ოპტიმიზაცია გამოთვლითი მოთხოვნებისთვის, მისი პასუხების სიზუსტის შენარჩუნებისას, განაცხადა ბრისკიმ. ფოტოს წყარო: NVIDIA NVIDIA-მ განაცხადა, რომ მან გააძლიერა მსჯელობის მოდელების ახალი სერია გადამზადების გზით, რათა გააუმჯობესოს მრავალსაფეხურიანი მათემატიკური გამოთვლები, კოდირება, მსჯელობა და რთული გადაწყვეტილების მიღება. ამან უზრუნველყო გაზრდილიყო მოდელების პასუხების სიზუსტე 20%-მდე საბაზისო მოდელთან შედარებით და ხუთჯერ გაზრდილიყო ინფერენსის სიჩქარე სხვა წამყვან ღია წყაროს მქონე მსჯელობის მოდელებთან შედარებით. ინფერენსის გაუმჯობესებული წარმადობა ნიშნავს, რომ მოდელებს შეუძლიათ გაუმკლავდნენ უფრო რთული მსჯელობის ამოცანებს, აქვთ გადაწყვეტილების მიღების გაუმჯობესებული შესაძლებლობები და შეუძლიათ შეამცირონ საოპერაციო ხარჯები კორპორაციებისთვის, განმარტა კომპანიამ. Llama Nemotron მოდელები ხელმისაწვდომია NVIDIA NIM მიკროსერვისებში Nano, Super და Ultra ვერსიების სახით. ისინი ოპტიმიზებულია მოქმედების სხვადასხვა სცენარისთვის: Nano განკუთვნილია კომპიუტერებისა და პერიფერიული მოწყობილობებისთვის მაღალი მსჯელობის სიზუსტის შენარჩუნებით, Super -ოპტიმალური სიჩქარისა და სიზუსტისთვის ერთ ამაჩქარებელზე მუშაობისას, ხოლო Ultra ვერსია გამოყენებული იქნება „აგენტის მაქსიმალური სიზუსტისთვის“ მონაცემთა ცენტრის გარემოში მრავალ ამაჩქარებელთან მუშაობისას. NVIDIA-ს მიხედვით, ვრცელი გადამზადება ჩატარდა NVIDIA DGX ქლაუდ სერვისზე NVIDIA Nemotron-ის და სხვა ღია კოდის მოდელების მიერ გენერირებული მაღალი ხარისხის სინთეტიკური მონაცემების, ასევე NVIDIA-ს მიერ ერთობლივად შექმნილი დამატებით დაგენერირებული მონაცემების ნაკრების გამოყენებით. სწავლება მოიცავდა ინფერენსის 360 ათას საათს H100 ამაჩქარებლების გამოყენებით და 45 ათას საათს - ადამიანური მსჯელობის შესაძლებლობების გასაუმჯობესებლად. ინსტრუმენტები, მონაცემთა ნაკრები და ოპტიმიზაციის მეთოდები, რომლებიც გამოყენებული იქნება მოდელების შესაქმნელად, იქნება ღია წყარო, რაც ბიზნესს მისცემს მოქნილობას - შექმნან საკუთარი მსჯელობის მოდელები, განაცხადა კომპანიამ. NVIDIA Llama Nemotron-ის ერთ-ერთი მთავარი მახასიათებელია მსჯელობის ვარიანტის ჩართვა/გამორთვის შესაძლებლობა. ეს არის ახალი შესაძლებლობა ხელოვნური ინტელექტის ბაზარზე, აცხადებს კომპანია. Anthropic Claude 3.7-ს აქვს გარკვეულწილად მსგავსი ფუნქციონირება, თუმცა ეს არის დახურული მოდელი. ღია კოდის მოდელებს შორის IBM Granite 3.2-საც აქვს მსჯელობის შეცვლის შესაძლებლობა, რომელსაც IBM უწოდებს „პირობით მსჯელობას“. ჰიბრიდული ან პირობითი მსჯელობის უნიკალური თვისება ის არის, რომ იგი საშუალებას აძლევს სისტემებს, გამორიცხონ გამოთვლითი მსჯელობის ძვირადღირებული ნაბიჯები მარტივი მოთხოვნებისთვის. NVIDIA-მ აჩვენა, თუ როგორ შეუძლია მოდელს ჩაერთოს კომპლექსურ მსჯელობაში კომბინატორული პრობლემის გადაჭრისას, მაგრამ გადაერთოს მარტივი პასუხის რეჟიმში მარტივი ფაქტობრივი კითხვების შემთხვევაში. NVIDIA-მ გამოაცხადა, რომ მრავალი პარტნიორი უკვე იყენებს Llama Nemotron-ის მოდელებს ახალი ძლიერი AI აგენტების შესაქმნელად. მაგალითად, Microsoft-მა დაამატა Llama Nemotron და NIM მიკროსერვისები Microsoft Azure AI Foundry-ში. SAP SE იყენებს Llama Nemotron მოდელებს თავისი AI ასისტენტ Joule-ისა და SAP Business AI პორტფოლიოს შესაძლებლობების გასაუმჯობესებლად. გარდა ამისა, კომპანია იყენებს NVIDIA NIM და NVIDIA NeMo მიკროსერვისებს ABAP ენის კოდის დასრულების სიზუსტის გასაუმჯობესებლად. ServiceNow იყენებს Llama Nemotron-ის მოდელებს ხელოვნური ინტელექტის აგენტების შესაქმნელად, რომლებიც აუმჯობესებენ დავალებების შესრულებას და სიზუსტეს ბიზნესისთვის ინდუსტრიის სხვადასხვა სფეროში. Accenture-მა NVIDIA Llama Nemotron-ის მსჯელობის მოდელები ხელმისაწვდომი გახადა თავის AI Refinery პლატფორმაზე. Deloitte გეგმავს Llama Nemotron-ის მოდელების ჩართვას თავის ახლახანს დაანონსებულ AI პლატფორმა Zora AI-ში. Atlassian და Box ასევე მუშაობენ NVIDIA-სთან, რათა მათ მომხმარებლებს ჰქონდეთ წვდომა Llama Nemotron-ის მოდელებზე. https://tinyurl.com/24yktptp 1 Quote
Magdalena Posted March 31, 2025 Posted March 31, 2025 Nvidia GTC-ზე წარადგინეს ნეიროინტერფეისი ხელოვნური ინტელექტით, რომელიც ტვინს აკავშირებს კომპიუტერთან ოპერაციის გარეშე რესურსი eWeek აცხადებს, რომ Nvidia GTC 2025 კონფერენციამ ინდუსტრიის ლიდერებს წარუდგინა ხელოვნურ ინტელექტზე მომუშავე, მინიმალური ინვაზიური ნეიროინტერფეისის ცოცხალი დემონსტრირება. დემონსტრაცია ჩაატარა Synchron-მა, კომპანიამ, რომელიც ამტკიცებს საკუთარი „ტვინი-კომპიუტერის“ ინტერფეისის ტექნოლოგიის უპირატესობას კონკურენტ პროექტებთან მიმართებაში, მათ შორისაა ილონ მასკის Neuralink. ფოტოს წყარო: Synchron Synchron-ის ტვინის სენსორი მონტაჟდება ოპერაციის გარეშე. იგი წააგავს სისხლძარღვების გასაფართოებელ სტენტს და შეჰყავთ კისრის არეში, ვენაში. ოპერაცია მარტივია: სტენტი ვენის მეშვეობით შეჰყავთ თავის ტვინის ქერქის მოტორული ზონის არეში, სადაც იგი კითხულობს ტვინის აქტივობას. პაციენტის მკერდზე კანის ქვეშ მოთავსებულია სიგნალის გადამცემი, საიდანაც მონაცემები უსადენოდ გადაეცემა კომპიუტერს. ასეთი იმპლანტები ავსტრალიის ოთხ მოქალაქეს და აშშ-ის ექვს მოქალაქეს დაუმონტაჟეს. GTC-ზე Synchron-მა აჩვენა რამდენიმე ახალი ტექნოლოგიის უწყვეტი ინტეგრაცია: მათ შორის იყო Apple Vision Pro, Nvidia-ს Holoscan მულტიმოდალური მონაცემთა დამუშავების პლატფორმა და Sentrode - Synchron-ის საფირმო ინტერფეისი, რომელიც აკავშირებს ადამიანის აზრებს ფიზიკურ გარემოსთან. პაციენტის სურვილების (მისი ტვინის აქტივობის) შესახებ მონაცემები იკითხება სტენტის იმპლანტით და გადაეცემა Vision Pro ჰედსეტის სისტემა AssistiveTouch-ს. „ჩვენ ვაშენებთ ტვინის მოდელს გენერაციული წინასწარი ტრენინგის მეთოდების გამოყენებით, რომლებიც სწავლობენ უშუალოდ ნეირო მონაცემებიდან და აბსტრაგირებენ ადამიანის გონების საფუძვლებს, რათა შევქმნათ ისეთი ფუნქციები, რომლებიც გააუმჯობესებს ჩვენი მომხმარებლების ცხოვრებას“, - განაცხადა Synchron-ის აღმასრულებელმა დირექტორმა და დამფუძნებელმა Thomas Oxley-მ. „ეს შესაძლებელია დიდი მონაცემთა ნაკრების მასშტაბირების ჩვენი შესაძლებლობის წყალობით, რაც საშუალებას იძლევა, რომ BCI [ინტერფეისი] გავხადოთ ისეთივე გავრცელებული, როგორც [ჩვეულებრივი] სტენტის ჩადგმა“. დემონსტრაციის დროს მომხმარებელმა სახელად როდნიმ გამოიყენა იმპლანტირებული სისტემა, რათა ეკონტროლებინა ტემპერატურა, განათება და მუსიკა საკუთარ სახლში გონების გამოყენებით, რასაც კომპანია აჩვენებდა ექსპერიმენტებში ღონისძიებამდე დიდი ხნით ადრე. კომპანიის მიზნებია, რომ მისი ინტერფეისიდაეხმაროს დამბლის და სხვა მძიმე ფიზიკური შეზღუდული შესაძლებლობის მქონე ადამიანებს - გააკონტროლონ ტექნოლოგია ხელების გარეშე და უკეთესად დაუკავშირდნენ მათ გარშემო არსებულ სამყაროს. რეალურ სამყაროში შეგროვებული მონაცემები ხელს შეუწყობს „შემეცნებითი ხელოვნური ინტელექტის“ მომზადებას, რომელიც განკუთვნილია როგორც სამედიცინო დანიშნულების, ასევე უფრო ფართო გამოყენებისთვის. ამ მიზნით, Synchron მუშაობს Nvidia-სთან კონცეფცია Chiral-ზე. ეს არის მომავალი „ტვინი-კომპიუტერის“ ინტერფეისის სისტემა, რომელიც აერთიანებს რეალურ დროში მონაცემების ნეიროდამუშავებას მოწინავე ხელოვნურ ინტელექტთან. ამ კონცეფციის განსახორციელებლად სამი ძირითადი მიზნის მიღწევაა საჭირო. პირველია რეალურ დროში საავტომობილო ფუნქციების ნეირო დეკოდირების სისტემის შემუშავება, რომელიც მომხმარებლებს საშუალებას მისცემს გააკონტროლონ ციფრული გარემო უშუალოდ ტვინის იმპლანტების საშუალებით მინიმალური შეყოვნებით. მეორე, დაემატოს რეალურ სამყაროში არსებული ინფორმაცია Nvidia Cosmos-ის გამოყენებით გარემოს რუკაზე რეალისტური ფიზიკის გასაგებად. მესამე, შეიქმნას AI მოდელი ანონიმური მომხმარებლის მონაცემებზე დაყრდნობით. ეს ყველაფერი შექმნის Chiral-ის საფუძველს, „თვითგაუმჯობესების უნივერსალურ“ მოდელს როგორც სამედიცინო, ასევე ზოგადი გამოყენებისთვის. Synchron ამ განვითარებად მოდელს "კოგნიტურ AI"-ს უწოდებს. საბოლოო მიზანი არის „განზრახვის აღიარების მიღმა გადასვლა“, რათა ჩაეყაროს საფუძველი განზრახვებიდან რეალურ დროში გადასვას“ და შეიქმნას „ტვინის სრულმასშტაბიანი საბაზისო მოდელი“. ეს თამამი იდეაა და კომპანია აღიარებს, რომ კონცეფცია ჯერჯერობით ჰიპოთეტური რჩება. https://tinyurl.com/mr42p7mz 1 Quote
Magdalena Posted October 25, 2025 Posted October 25, 2025 ეკონომიური ჰიბრიდი: Intel-მა გააერთიანა Gaudi 3 და NVIDIA B200 ამაჩქარებლები ხელოვნური ინტელექტის ერთ პლატფორმაში Intel Corporation-მა წარმოადგინა ჰიბრიდული სისტემა - მოწყობილობა Gaudi3 და NVIDIA B200 ამაჩქარებლების მასივებს Ethernet-ის საშუალებით აკავშირებს. Gaudi3 Rack Scale 64 პლატფორმა შეიცავს 16-მდე გამოთვლით კვანძს. SemiAnalysis-ის მონაცემებით თითოეული წარმოდგენილია ორი უცნობი Intel Xeon პროცესორით, ოთხი Intel Gaudi 3 OAM ამაჩქარებლით (64 ერთ დომენში), ოთხი NVIDIA ConnectX-7 400GbE ადაპტერით და ერთი NVIDIA BlueField-3 DPU-თი. სულ ხელმისაწვდომია HBM2e-ს 8.2 ტბ, ხოლო ჯამური სიჩქარე 76.8 ტბ/წმ-ია. სუპერამაჩქარებლის სიმძლავრე 120 კვტ-ია. გარდა ამისა, გამოიყენება Broadcom Tomahawk 5 ჩიპებზე დაფუძნებული 12 კომუტატორი (51.2 ტბ/წმ). Ethernet გამოიყენება მასშტაბირებისა და სხვა კვანძებთან, მათ შორის NVIDIA-სთან, კომუნიკაციისთვის. ჰიბრიდულ სისტემაში Intel Gaudi 3 ამაჩქარებლები გამოიყენება დეკოდირების ეტაპზე, ანუ ტოკენების გენერირებისთვის, სადაც მეხსიერების მოცულობა და სიჩქარე კრიტიკულად მნიშვნელოვანია, ხოლო NVIDIA B200 ჩიპები პასუხისმგებელნი არიან ინფერენსის prefill-ამოცანებზე, ანუ კონტექსტის დამუშავებასა და KVCache-ის შევსებაზე, სადაც მნიშვნელოვანია გამოთვლის სიჩქარე. NVIDIA იმავე მიდგომას იყენებს და უკვე დააანონსა Rubin CPX თანაამაჩქარებლები, რომლებიც სუპერდიდ მოდელებში კონტექსტის დამუშავებას და KVCache-ის შექმნას უზრუნველყოფენ. ფოტოს წყარო: Intel Intel აცხადებს, რომ Gaudi3-ისა და B200-ის ჰიბრიდული კონფიგურაცია უზრუნველყოფს 1.7-ჯერ მეტი წარმადობის მიღწევას (TCO) ერთ დოლარზე, მხოლოდ B200-ის ბაზაზე მოქმედ პლატფორმებთან შედარებით. თუმცა, როგორც აღინიშნა, ეს განცხადებები ჯერ არ დადასტურებულა დამოუკიდებელი ტესტირებით. გარდა ამისა, Gaudi3-ის პროგრამული პლატფორმა ჩამორჩება NVIDIA-ს პლატფორმას და დახურული კოდის მქონეა. ასევე, Gaudi-ის ამჟამინდელი არქიტექტურა თავისი სასიცოცხლო ციკლის ხანგრძლივობის დასასრულს უახლოვდება, რაც ეჭვქვეშ აყენებს შემოთავაზებული პლატფორმის გრძელვადიან სიცოცხლისუნარიანობას. Intel-ისთვის ეს შესაძლოა დარჩენილი Gaudi3-ის გაყიდვის ერთ-ერთი მცირე შანსი იყოს. ამასობაში, მან ცოტა ხნის წინ დააანონსა Crescent Island GPU ამაჩქარებელი, რომელიც სპეციალურად ხელოვნური ინტელექტის ინფერენსისთვისაა შექმნილი. Xe3P არქიტექტურაზე დაფუძნებული გადაწყვეტილება 160 გბ LPDDR5X მეხსიერებით იქნება წარმოდგენილი. დიდი მოულობით მიწოდება 2027 წლამდე არ არის მოსალოდნელი. კომპანიამ ადრე უარი თქვა Falcon Shores-ის გამოშვების გეგმებზე და ყურადღება Jaguar Shores-ზე გაამახვილა. ამჟამად კომპანიამ დაიწყო Ponte Vecchio (Intel Max) და Arctic Sound (Flex) ამაჩქარებლების მხარდაჭერის თანდათანობითი შეწყვეტა. https://tinyurl.com/ymey3yun Quote
Magdalena Posted November 2, 2025 Posted November 2, 2025 ჰუანგმა წარადგინა Vera Rubin-ის სუპერჩიპი - ცენტრალური პროცესორი, ორი უზარმაზარი გრაფიკული პროცესორი და 100 Pflops ერთ დაფაზე ახალი თაობის ხელოვნური ინტელექტისთვის GTC 2025 კონფერენციაზე Nvidia-ს ხელმძღვანელმა ჯენსენ ჰუანგმა კომპანიის ახალი თაობის გრაფიკული პროცესორი Rubin წარადგინა. კერძოდ, მან Vera Rubin Superchip ამაჩქარებლის პროტოტიპი წარმოადგინა, რომელიც ერთ დაფაზე აერთიანებს სრულიად ახალ Vera CPU-სა და Rubin-ის მასიური გრაფიკული დაფების წყვილს. ეს კომბინაცია მომავლის ხელოვნური ინტელექტის მქონე სუპერკომპიუტერებისთვის წარმადობის ახალ დონეს გვპირდება. ფოტოს წყარო: Nvidia Rubin-ის თითოეული გრაფიკული პროცესორი შედგება ორი დიდი CUDA ბირთვისა და რვა მაღალსიჩქარიანი HBM4 მეხსიერებისგან, რომელთა საერთო მოცულობა 288 გბ-ია. გრაფიკული პროცესორის მახასიათებლები და მეხსიერების სიჩქარე არ არის მითითებული. თუმცა, აღნიშნულია, რომ ერთი Vera Rubin Superchip სისტემა უზრუნველყოფს 100 Pflops (100 კვადრილიონი ოპერაცია წამში) ხელოვნური ინტელექტის წარმადობას (FP4). რაც შეეხება ცენტრალურ პროცესორ Vera-ს, ის აღჭურვილი იქნება 88 ბირთვით, რომლებიც დაფუძნებული იქნება Arm არქიტექტურის დაუზუსტებელ ვერსიაზე 176 ნაკადით და დაუკავშირდება გრაფიკულ პროცესორებს NVLink-C2C ინტერფეისის საშუალებით 1.8 ტბ/წმ სიჩქარით. დაფა ასევე აღჭურვილი იქნება LPDDR ოპერატიული მეხსიერებით (ვერსია დაუზუსტებელია, მაგრამ სავსებით შესაძლებელია, რომ ის იყოს LPDDR6), რაც „სუპერჩიპზე“ ოპერატიული მეხსიერების საერთო მოცულობას 2 ტბ-მდე გაზრდის. Nvidia მომხმარებლებს შესთავაზებს ახალ ამაჩქარებლებზე დაფუძნებული სისტემების ფართო სპექტრს, როგორიცაა ახალი Compute Trays, მათ შორის CPX ვერსია დიდი ხელოვნური ინტელექტის მოდელის კონტექსტებისთვის. კომპანიამ ასევე დააანონსა გამოსაყენებლად მზა Vera Rubin NVL144 სერვერის სტეკები 3.6 EFLOPS-ით (3.6 კვინტილიონი ოპერაცია წამში) წინასწარ გაწვრთნილი ხელოვნური ინტელექტის მოდელების გასაშვებად (FP4 დასკვნა) და 1.2 EFLOPS-ით - სასწავლო მოდელებისთვის (FP8 training). ეს მაჩვენებელი დაახლოებით 3.3-ჯერ უფრო სწრაფია ამჟამინდელ GB300 NVL72 სისტემებთან შედარებით. სისტემა უზრუნველყოფს HBM4 მეხსიერების 13 ტბ/წმ-იან მთლიან სიჩქარეს და 75 ტბ/წმ სწრაფ სისტემურ მეხსიერებას, ხოლო NVLink-ისა და CX9 ინტერფეისების ჯამური სიჩქარე, შესაბამისად, 260 ტბ/წმ-ს და 28.8 ტბ/წმ-ს მიაღწევს. Nvidia-მ ასევე გააზიარა Rubin Ultra ჩიპებზე დაფუძნებული NVL576 სისტემის დეტალები, რომლის გამოშვება 2027 წლის მეორე ნახევარშია მოსალოდნელი. ეს ჩიპები მოიცავს ოთხ დიდ GPU ჩიპლეტს ერთ სილიკონზე და 1 ტბ HBM4e მეხსიერებას. საბოლოო ჯამში, NVL576 სისტემა უზრუნველყოფს FP4-ის 15 EFLOPS-მდე და FP8-ის 5 EFLOPS-მდე წარმადობას, რაც NVLink-ის საშუალებით 365 ტბ-მდე სწრაფ სისტემურ მეხსიერებას და 1.5 PB/s-მდე ქსელურ სიჩქარეს გვთავაზობს. Nvidia-მ განაცხადა, რომ Rubin-ის პირველი სატესტო მოწყობილობები უკვე გავიდა კომპანიის ლაბორატორიებში ტესტირებისთვის, ხოლო მასობრივი წარმოება 2026 წლისთვის არის დაგეგმილი. ეს არქიტექტურა შეიცვლება სრულიად ახალი Feynman-ის არქიტექტურით, რომლის გამოშვება 2027–2028 წლებშია დაგეგმილი. თუმცა, Nvidia-ს ჯერ არ წარმოუდგენია ამ პლატფორმაზე დაფუძნებული არცერთი ჩიპი - ამ ეტაპზე ნაკლებად სავარაუდოა, რომ ისინი ფიზიკური სახით არსებობდნენ. https://tinyurl.com/mpe9cr5m Quote
Magdalena Posted December 12, 2025 Posted December 12, 2025 Nvidia-ს ხელმძღვანელმა ისაუბრა, როგორ დაიწყო ღრმა სწავლების ტექნოლოგიის შემუშავება 2012 წელს Fermi-ს არქიტექტურითა და GeForce GTX 580-ების წყვილით ღრმა სწავლების ტექნოლოგია შემუშავდა აპარატურაზე, რომელიც თავდაპირველად არ იყო შექმნილი ამ ტიპის გამოთვლებისთვის. Nvidia-ს გენერალურმა დირექტორმა ჯენსენ ჰუანგმა ჯო როგანის პოდკასტში გაამხილა, რომ მკვლევრებმა, რომლებმაც ღრმა სწავლება შექმნეს, 2012 წელს განახორციელეს იგი SLI რეჟიმში 3 გბ GeForce GTX 580 ვიდეო ბარათებზე. ფოტოს წყარო: Nvidia ტორონტოს უნივერსიტეტის მკვლევარებმა გამოიგონეს ღრმა სწავლების ტექნოლოგია კომპიუტერული ხედვის სისტემებში გამოსახულების ამოცნობის გასაუმჯობესებლად. 2011 წელს Alex Krizhevsky, Ilya Sutskever და Geoffrey Hinton იკვლევდნენ გამოსახულების ამოცნობის ხელსაწყოების შექმნის უფრო მოწინავე გზებს. იმ დროს ნეირონული ქსელები ჯერ არ არსებობდა. ამის ნაცვლად დეველოპერები კიდეების, კუთხეების და ტექსტურების აღმოჩენისთვის იყენებდნენ ხელით შექმნილ ალგორითმებს გამოსახულების ამოსაცნობად. სამმა მკვლევარმა შექმნა AlexNet, რვაშრიანი არქიტექტურა, რომელიც დაახლოებით 60 მილიონ პარამეტრს შეიცავდა. ამ არქიტექტურის მთავარი მახასიათებელი იყო თვითსწავლების უნარი ღრმა ნეირონული ფენების გამოყენებით. ეს არქიტექტურა იმდენად წარმატებული იყო, რომ გამოშვებისთანავე მან 70%-ზე მეტით გადააჭარბა იმ დროისთვის წამყვან გამოსახულების ამოცნობის ალგორითმს, რითაც ინდუსტრიის ყურადღება მიიპყრო. ჰუანგმა განმარტა, რომ AlexNet-ის დეველოპერებმა გამოსახულების ამოცნობის ალგორითმი SLI რეჟიმში ორ GeForce GTX 580 გრაფიკულ ბარათზე ააწყვეს. გარდა ამისა, ქსელი ოპტიმიზებული იყო ორივე ვიდეო ბარათზე სამუშაოდ: ორი გრაფიკული დაფა მონაცემებს მხოლოდ საჭიროების შემთხვევაში ცვლიდა, რაც მნიშვნელოვნად ამცირებდა ტრენინგის დროს. ეს GTX 580-ს მსოფლიოში პირველ გრაფიკულ დაფად აქცევს, რომელსაც ღრმა სწავლების/მანქანური სწავლების ქსელის მხარდაჭერა აქვს. საინტერესოა, რომ ეს შედეგი იმ დროს იქნა მიღწეული, როდესაც Nvidia-მ ხელოვნურ ინტელექტში ძალიან მცირე ინვესტიცია განახორციელა. მისი გრაფიკული კვლევისა და განვითარების უმეტესი ნაწილი 3D გრაფიკასა და თამაშებზე, ასევე CUDA ტექნოლოგიაზე იყო ორიენტირებული. GeForce GTX 580 სპეციალურად თამაშებისთვის იყო შექმნილი და არ გააჩნდა ღრმა სწავლების ქსელების დაჩქარების ფართო მხარდაჭერა. აღმოჩნდა, რომ GPU-ების თანდაყოლილი პარალელიზმი ზუსტად ისაა, რაც ნეირონულ ქსელებს სწრაფად მუშაობისთვის სჭირდებათ. ჰუანგმა ასევე განმარტა, რომ AlexNet-მა GeForce GTX 580-თან ერთად Nvidia-ს საშუალება მისცა, ხელოვნური ინტელექტის აპარატურის შემუშავება განეხორციელებინა. ჰუანგმა განაცხადა, რომ როგორც კი კომპანიამ გააცნობიერა, რომ ღრმა სწავლება შეიძლებოდა გლობალური პრობლემების გადასაჭრელად გამოყენებულიყო, მან 2012 წელს ამ ტექნოლოგიაში ყველა რესურსი, კვლევა, განვითარება და გამოცდილება ჩადო. ამან განაპირობა 2016 წელს Volta არქიტექტურაზე დაფუძნებული ორიგინალი Nvidia DGX ხელოვნური ინტელექტის პლატფორმის გამოშვება პირველი თაობის Tensor Cores-ით და DLSS-ით. GeForce GTX 580-ისა და AlexNet-ის გარეშე Nvidia შესაძლოა ვერ გამხდარიყო ხელოვნური ინტელექტის ისეთი გიგანტი, როგორიც დღეს არის. https://tinyurl.com/bdhfaebs Quote
Magdalena Posted December 20, 2025 Posted December 20, 2025 Nvidia-მ გამოუშვა Nemotron 3 Nano 30B - ხელოვნური ინტელექტის მოდელი ღია მასშტაბებითა და დიდი კონტექსტური ფანჯრით Nvidia-მ გამოაცხადა Nemotron 3 სერიის ახალი მოდელების დეტალები, რომლებიც სხვა ამოცანებს შორის განკუთვნილია ახალი თაობის, სპეციალიზებულ აგენტებზე დაფუძნებული ხელოვნური ინტელექტის შესაქმნელად. ფოტოს წყარო: Nvidia სერიის პირველი წევრია Nemotron 3 Nano 30B მოდელი ღია წონებით, მოიცავს სულ 30 მილიარდ პარამეტრს და 3 მილიარდ აქტიურ პარამეტრს. მოდელი დაფუძნებულია ჰიბრიდულ Mamba-Transformer არქიტექტურაზე, რომელიც აერთიანებს ექსპერტების (MoE), ინტერაქტიულ გარემოში გაძლიერებული სწავლების (RL) და 1 მილიონი ტოკენის კონტექსტური ფანჯრის ნაზავს, რაც მრავალაგენტიანი აპლიკაციებისთვის მაღალი წარმადობის, გრძელვადიანი მსჯელობის საშუალებას იძლევა. VideoCardz-ის ცნობით, რომელიც Hugging Face-ზე გამოქვეყნებულ პუბლიკაციას ეყრდნობა, როუტერი ერთი გაშვებით 128 ექსპერტიდან ექვსს ააქტიურებს. Nvidia-მ განაცხადა, რომ მოდელის გაშვება შესაძლებელია DGX Spark სისტემის, ასევე H100 და B200 ამაჩქარებლების გამოყენებით. Nemotron 3-ის ახალი ფუნქციები, რომლებიც კონკრეტულად აგენტებზე დაფუძნებული სისტემების საჭიროებებს ეხება, მოიცავს შემდეგს: ჰიბრიდული Mamba-Transformer-ის MoE არქიტექტურა ტესტირების ეფექტურობისა და გრძელვადიანი მსჯელობის გასაუმჯობესებლად. მრავალგარემოიანი გაძლიერებული სწავლება, შემუშავებული რეალურ სამყაროს აგენტებზე დაფუძნებულ პრობლემებზე დაყრდნობით. 1 მილიონი ტოკენისგან შემდგარი კონტექსტური ფანჯარა, რომელიც მხარს უჭერს ღრმა მსჯელობას მრავალ დოკუმენტსა და აგენტის გრძელვადიან მეხსიერებაში. შედაგად იგი ძლიერი მსჯელობის საშუალებას იძლევა დიდ კოდურ ბაზებში, გრძელ დოკუმენტებში, გრძელ საუბრებსა და აგრეგირებულ ამოღებულ კონტენტზე. ფრაგმენტირებული ევრისტიკული სეგმენტაციის ალგორითმების გამოყენების ნაცვლად აგენტებს შეუძლიათ შეინახონ მთელი მტკიცებულებების ნაკრებები, ისტორიის ბუფერები და მრავალსაფეხურიანი გეგმები ერთ კონტექსტურ ფანჯარაში. ღია, გამჭვირვალე სასწავლო არხი, რომელიც მოიცავს მონაცემებს, წონებსა და რეცეპტებს. MoE Nemotron 3 სერია მოიცავს სამ მოდელს: Nemotron 3 Nano - კომპაქტური, 30 მილიარდი პარამეტრის მქონე მოდელი, რომელიც ერთდროულად ააქტიურებს 3 მილიარდამდე პარამეტრს მიზნობრივი, მაღალი წარმადობის ამოცანებისთვის; Nemotron 3 Super - მაღალი სიზუსტის მსჯელობის მოდელი დაახლოებით 100 მილიარდი პარამეტრით და 10 მილიარდამდე აქტიური პარამეტრით თითო ტოკენზე, შექმნილი მრავალაგენტიანი აპლიკაციებისთვის; Nemotron 3 Ultra - მასშტაბური მსჯელობის მოდელი. Nemotron 3 Nano მზა სახელმძღვანელოებით უკვე ხელმისაწვდომია. Nemotron 3 Super და Ultra მოგვიანებით გამოვა. https://tinyurl.com/3e6zbe3e Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.