Новото OverflowAPI ще позволи на потребителите и клиентите на OpenAI да имат достъп до модели, при които са използвани по-пълни, качествени и проверени от community-то данни, което е от изключително значение, когато се налага отстраняването на спешен проблем, например. Това ще даде възможност на разработчиците на софтуер да се фокусират върху по-технологични и по-приоритетни задачи, като за целта използват директно код, генериран от ChatGPT.
От друга страна Stack Overflow ще използва моделите на OpenAI за да доразвива OverflowAI. Според компаниите това партньорство се очаква да допринесе, най-общо казано, за благото на Stack Exchange community-то.
Брад Лайткеп, главен оперативен директор в OpenAI, акцентира върху значението на разнообразието за подобряване на полезността на AI.
“Нашето дълбоко партньорство със Stack Overflow ще ни позволи да подобрим изживяването на потребителите и разработчиците в нашите платформи, като се учим от различни езици, култури, предмети и индустрии”, каза той.
Прашант Чандрасекар, главен изпълнителен директор на Stack Overflow, подчерта въздействието на това стратегическо партньорство върху общността на разработчиците, която може да се похвали с над 59 милиона въпроса и отговора.
“Чрез това водещо в индустрията партньорство с OpenAI, ние се стремим да предефинираме изживяването на разработчиците чрез интегриране на силата на общността, най-добрите в класа си данни и иновативни AI изживявания”, каза Чандрасекар.
Освен това той подчерта ангажимента за напредък на социално отговорния AI с надеждни и точни данни, които формират гръбнака на бъдещите технологични решения.
Първата вълна от интеграции и нововъведения в резултат на партньорството се очакват в началото на 2024 г.
]]>Той може ефективно да изпълнява задачи като генериране на SQL, писане на код и следване на инструкции, като постига или надминава референтните стойности в тези области в сравнение с моделите, които имаха много по-голям бюджет за обучение, отколкото беше необходимо.
Според Snowflake тези показатели са важни за предприятията, тъй като това са възможностите, необходими за изграждане на генеративни AI copilots.
Arctic е на едно ниво по отношение на корпоративната си интелигентност с LLama 3 8B и Llama 2 70B, но е използвал по-малко от половината от бюджетите за обучение като тези модели. Той също така е на едно ниво с Llama 3 70B, който има седемнадесет пъти по-висок бюджет за обучение.
Snowflake е на мнение, че ниските разходи за обучение ще позволят на компаниите да обучават персонализирани модели, без да се налага да харчат прекалено много пари.
“Изграждането на интелигентни модели от най-високо ниво за предприятията с помощта на LLM традиционно е прекомерно скъпо и изисква много ресурси и често струва десетки до стотици милиони долари”, пише екипът на Snowflake AI Research в публикация в блога.
Arctic е с отворен код под лиценза Apache 2.0.
“Предоставяйки на общността на ИИ водеща в индустрията интелигентност и ефективност по един наистина отворен начин, ние разширяваме границите на възможностите на ИИ с отворен код. Изследванията ни с Arctic значително ще увеличат възможностите ни да предоставяме надежден и ефективен ИИ на нашите клиенти”, казва Шридхар Рамасвами, главен изпълнителен директор на Snowflake.
Arctic LLM е част от семейството модели на ИИ Arctic, което включва и модел за вграждане на текст.
Arctic LLM вече е достъпен чрез Hugging Face, като се очаква скоро да е наличен и в Snowflake Cortex, Amazon Web Services (AWS), Microsoft Azure, NVIDIA API catalog, Lamini, Perplexity, Replicate и Together.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR
Прочетете още:
1. ОТ ПЪРВО ЛИЦЕ: РАЗХОДКА ИЗ НОВИЯ ОФИС НА DELASPORT
2. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
3. Ocado Technology създава ново звено в България
“Мониторингът на New Relic AI предоставя на инженерите, работещи в областта на изкуствения интелект, силата на наблюдаемостта, като осигурява необходимата информация за отстраняване на грешки, наблюдение и подобряване на приложенията за изкуствен интелект, гарантирайки, че те работят по предназначение, предоставят точни резултати и отговарят на нововъзникващите стандарти за отговорно използване”, пише New Relic в публикация в блога, когато платформата е въведена за първи път в ранен достъп през ноември миналата година.
New Relic AI е вече общодостъпно и ще даде възможност на клиентите бързо да определят основната причина за проблемите с приложенията за изкуствен интелект, което ще позволи по-ефективно отстраняване и разрешаване на проблемите.
То предоставя цялостен поглед върху приложенията за изкуствен интелект и тяхната инфраструктура, като проследява показатели като брой заявки, време за отговор и използване на токени. От един изглед потребителите могат да видят тенденциите в отговорите на ИИ, да анализират настроенията и да видят отзивите на потребителите.
Клиентите могат също така да проследяват жизнения цикъл на отговорите на ИИ, което е полезно за отстраняване на проблеми с производителността и качеството, като халюцинации, например.
Инструментът предоставя и метод за сравняване на различни модели по отношение на производителността, разходите и качеството.
“Чрез проследяване на използването на токени в моделите на ИИ можете да определите кои модели са най-скъпи за изпълнение. След това можете да изберете по-евтини модели, за да оптимизирате архитектурата на приложението си за изкуствен интелект”, пише New Relic.
New Relic има над 60 интеграции в екосистемата на AI, включително популярни LLM, библиотеки за машинно самообучение, векторни бази данни и рамки за оркестрация.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR
Прочетете още:
1. Amazon Добави Още Актуализации в Amazon Bedrock
2. Изследователи: Windows Defender Може да Бъде Заблуден да Изтрие Бази Данни
3. ОТ ПЪРВО ЛИЦЕ: РАЗХОДКА ИЗ НОВИЯ ОФИС НА DELASPORT
Amazon Bedrock е управлявана услуга, която се занимава с базисната инфраструктура за тези модели, така че разработчиците да могат да създават генеративни AI приложения, без да се притесняват за управлението им.
“Продължаваме да въвеждаме бързи иновации за нашите клиенти, като удвояваме ангажимента си да им предоставяме най-пълния набор от възможности и избор от водещи в индустрията модели, като допълнително демократизираме иновациите в областта на генеративния изкуствен интелект в голям мащаб”, заяви д-р Свами Сивасубраманиан, вицепрезидент на AI и Data в AWS.
Технологичният гигант добави и нова опция за импортиране на потребителски модели, която позволява на разработчиците да добавят свои собствени модели в Amazon Bedrock. С това те ще могат да използват модели, специфични за дадена област, които са обучени върху техни собствени данни.
Компаниите могат да създават своите модели в Amazon SageMaker или друг инструмент и след това да ги импортират в Amazon Bedrock.
Импортираните модели преминават през автоматизиран процес на валидиране, за да се гарантира, че отговарят на подходящи предпазни мерки и отговорни стандарти за изкуствен интелект. В момента се поддържат три отворени моделни архитектури – Flan-T5, Llama и Mistral – и в бъдеще ще бъдат добавени още.
Amazon добави и нова възможност за оценка на моделите, която позволява на екипите да сравняват различни модели в Amazon Bedrock. Според Amazon компаниите могат да прекарат дни или седмици в оценяване на различни модели, за да определят дали те отговарят на техния случай на употреба. Целта на тази нова функция е значително да съкрати времето за оценка.
Разработчиците могат да избират критерии за оценка, като например точност или устойчивост, и да качват свой собствен набор от данни. След това Amazon Bedrock извършва оценки на различни модели и генерира отчет, който показва как се е представил всеки модел за всеки критерий.
Друга нова функция е Guardrails за Amazon Bedrock, която улеснява компаниите да прилагат защитни мерки, съобразени със собствените им политики за отговорен изкуствен интелект. Повечето модели имат свои собствени предпазни мерки, но последната може да блокира 85% от вредното съдържание.
Разработчиците също така могат да добавят филтри за премахване на лична информация, специфични думи или нецензурни изрази.
Други важни актуализации са свързани с Amazon Titan.
Amazon Titan Image Generator позволява на разработчиците да подобряват или редактират съществуващи изображения чрез подсказки на естествен език и вече е общодостъпен.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR
Прочетете още:
1. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
2. Ocado Technology създава ново звено в България
3. ОТ ПЪРВО ЛИЦЕ: РАЗХОДКА ИЗ НОВИЯ ОФИС НА DELASPORT
Бумът на интереса към основните модели и генеративния ИИ води до нарастване на търсенето на допълнителна изчислителна мощност, както и на интереса към обучението на все по-големи модели.
Според документите, с които разполага Insider, Microsoft се подготвя да отговори на този проблем, като удвои капацитета на Azure през втората половина на тази финансова година, която продължава до края на юни.
Microsoft ще увеличи капацитета на допълнителните центрове за данни три пъти през първата половина на фискалната си година 2025.
Според гореспоменатите документи компанията внедрява “рекорден брой графични процесори”, за да се справи с натоварванията на AI, и е увеличила повече от два пъти общата си инсталирана база от ускорители през втората половина на миналата година.
Припомняме ви, че Microsoft имаше възнамерениe миналата година да похарчи “много милиарди долари” за изграждане на допълнителен капацитет в очакване на бързото нарастване на броя на клиентите, които искат да изпълняват проекти за генеративен ИИ.
Към края на 2023 г. данните на Synergy показват, че на САЩ се падат 51% от глобалния капацитет, измерен чрез MW критично ИТ натоварване, на Европа – 17%, а Китай е близо до тях с 16%.
Компаниите с най-голям отпечатък са всъщност тримата големи доставчици на облачни услуги – Amazon, Microsoft и Google. Те притежават 60% от целия капацитет на хипермащабните центрове за данни, следвани от Meta, Alibaba, Tencent, Apple, ByteDance и други сравнително малки хипермащабни оператори.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR
Прочетете още:
1. Ocado Technology създава ново звено в България
2. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
3. Впечатляващи Иновативни Проекти Победиха в Дни на Роботиката ’24 към ТУ-София
Силициевият гигант пусна първите два модела от семейството Llama 3 – един с параметри 8B и един със 70B. Според Meta тези модели са значително по-добри от моделите Llama 2, като предлагат много по-нисък процент на фалшиви откази, подобрено подравняване и по-голямо разнообразие в отговорите на моделите. Специфичните възможности на моделите като, генериране на код и следване на инструкции също са значително подобрени.
Llama 3 беше предварително обучена върху повече от 15T токена от публично достъпни източници, поради което наборът от данни за обучение на Llama 3 е седем пъти по-голям от набора от данни за обучение на Llama 2 и съдържа четири пъти повече код.
Според Meta при разработването на Llama 3 е разработен и нов набор за оценка от хора за сравнителен анализ, който съдържа 1800 подсказки в 12 случая на употреба. Те включват искане на съвет, класификация, отговор на затворен въпрос, писане на код, творческо писане, извличане, отговор на отворен въпрос, разсъждение, пренаписване, обобщаване и др.
Моделът с параметри 70B победи Claude Sonnet, Mistral Medium, GPT 3.5 и Llama 2, използвайки този нов набор за оценка.
“Със създаването на Llama 3 си поставихме за цел да предоставим най-добрите отворени модели, които да са равностойни на най-добрите собствени модели, налични днес”, пише Meta.
Llama 3 е налична в AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM и Snowflake. Освен това някои доставчици на хардуер също ще предложат поддръжка за нея, включително AMD, AWS, Dell, Intel, NVIDIA и Qualcomm.
През следващите няколко месеца компанията планира да актуализира Llama 3 с нови функции, по-дълги контекстни прозорци и по-големи размери на моделите.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR
Прочетете още:
1. GitLab Пусна GitLab Duo Chat с Над 40 Нови Функции
2. Ocado Technology създава ново звено в България
3. OpenSSF, CISA и DHS Обединяват Сили в Нов Проект с Отворен Код
“GitLab Duo Chat е готов да отговори на всичките ви въпроси за въвеждане в системата, което ще ви даде възможността да стартирате първия си проект”, пише в публикация в блога на GitLab.
Организациите могат да контролират до кои данни изкуственият интелект получава достъп за четене на ниво проект, подгрупа и група. GitLab заяви още, че данните на клиентите не се използват за обучение на моделите на ИИ.
“Независимо дали сте разработчик, или управлявате екип, GitLab Duo Chat може да ви даде възможност да се възползвате от AI, когато имате нужда през целия жизнен цикъл на разработката на софтуер – като същевременно ви помага да поддържате качеството на кода”, допълват от компанията.
Сред другите нови функции в GitLab 16.11 са:
Общо в GitLab 16.11 са добавени над 40 нови функции. Той е наличен в GitLab и в IDE, като VS Code и IDE на JetBrains. Той се предлага като допълнителна функция към GitLab Duo Pro, която е платена.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR
Прочетете още:
1. Ocado Technology създава ново звено в България
2. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
3. Заглавията на Xbox, Налични в PC Game Pass през Втората Половина на Април
“Това е само началото – очакваме бъдещите версии на Tricentis Copilot да имат още по-големи ползи”, казва Мав Търнър, главен директор продукти и стратегии в Tricentis
С помощта на Testim Copilot потребителите могат да въведат текстово описание на това, което искат да тестват, и да получат JavaScript кода за този тест. В допълнение към предоставянето на тестовия код, той предоставя и обяснение на този код, което улеснява разбирането му и повторното използване за бъдещи тестове, в подобни случаи.
Чрез включването на генеративен ИИ в процеса на тестване Tricentis се надява да направи тестването достъпно за тестери с не толкова големи технически познания.
Testim Copilot може да спести време и да намали грешките.
“Testim Copilot поставя ИИ директно в ръцете на потребителя, като автоматично предлага тестови случаи и поправки, което означава повече време, отделено за работните процеси, за да се повиши производителността и да се подобри времето за пускане на пазара на нови приложения”, споделя още Търнър.
Според Tricentis клиентите, които вече използват нейните инструменти за изкуствен интелект, са намалили процента на неуспешни тестове с 16%.
Следващите продукти на Tricentis, които ще се сдобият с AI Copilots, ще бъдат Tricentis Tosca (понастоящем в бета версия) и Tricentis qTest.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR
Прочетете още:
1. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
2. Ocado Technology създава ново звено в България
3. Впечатляващи Иновативни Проекти Победиха в Дни на Роботиката ’24 към ТУ-София
“Въпреки че SAS Viya е основата на софтуерната екосистема на SAS, компанията развива портфолиото си с иновативни продукти, за да отговори на разнообразните нужди на потребителите”, заяви Кати Ланг, директор на отдел “Изследване на софтуер за изкуствен интелект” в IDC.
Той допълва още, че новите предложения като SAS Viya Workbench имат за цел да повишат производителността, да подобрят ефективността и “да изградят доверие сред разработчиците на ИИ”.
Viya Workbench позволява на разработчиците и моделистите да работят на избран от тях език. Първоначално ще имат избор между SAS и Python, като се очаква R да бъде наличен до края на 2024 г. Viya Workbench предлага два варианта на среда за разработка – Jupyter Notebook/JupyterLab и Visual Studio Code.
Използването на аналитични процедури на SAS (PROCs) и нативните API на Python в рамките на Viya Workbench ускорява разработването на високопроизводителни модели на ИИ. Освен това персонализираните библиотеки на Python могат значително да подобрят скоростта и производителността с минимални промени в съществуващата програма на Python на разработчика.
Viya Workbench представлява гъвкава, мащабируема и ефективна среда за разработка, която може да се прекрати с минимална ИТ поддръжка. Специализираната аналитична среда разполага с персонализирана изчислителна мощност на CPU/GPU, която отговаря на нуждите на проекта.
“Многото предизвикателства, пред които са изправени разработчиците, не са просто дребни дразнители – те са пречки, които не позволяват да се отговори на въпросите и да се свърши работата”, заяви Джаред Питърсън, старши вицепрезидент на инженерния отдел на SAS.
Първоначално Viya Workbench ще бъде достъпен чрез Amazon AWS Marketplace през второто тримесечие. Очаква се в бъдеще да се предлагат допълнителни поддържани доставчици на облачни услуги и опция за внедряване на софтуер като услуга.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR
Прочетете още:
1. 5 Страхотни Функции, които да Очаквате Windows 11
2. Acer Отбеляза Пореден Ръст на Приходи
3. Компании се Обединяват, за Създаване на AI Инструменти за Предприятия
Проектът е под ръководството на организацията LF AI and Data на Linux Foundation, която се фокусира върху платформени инициативи, свързани с изкуствения интелект и данните.
Изпълнителният директор на LF AI and Data Ибрахим Хададт посочва в съобщение за пресата, че очакванията са OPEA да проправи пътя за пускането на “подсилени”, “мащабируеми” генеративни системи за изкуствен интелект, които “използват най-добрите иновации с отворен код от цялата екосистема”.
“OPEA ще отключи нови възможности в областта на изкуствения интелект, като създаде подробна, композитна рамка, която е в челните редици на технологичните стекове. Тази инициатива е доказателство за нашата мисия да стимулираме иновациите и сътрудничеството с отворен код в рамките на общностите за ИИ и данни при неутрален и отворен модел на управление”, казва Хададт.
Сред други членове на проекта са Intel, Red Hat, собственост на IBM, Hugging Face, Domino Data Lab, MariaDB и VMware.
На въпроса какво тези компании могат да изградят заедно Хаддад загатва за няколко възможности, като например “оптимизирана” поддръжка за вериги от инструменти и компилатори за ИИ, които позволяват натоварванията с ИИ да се изпълняват на различни хардуерни компоненти, както и “хетерогенни” конвейери за генериране на разширени данни (RAG). RAG придобива все по-голяма популярност в корпоративните приложения на генеративния изкуствен интелект.
RAG моделите се позовават на тази външна информация – която може да бъде под формата на патентовани фирмени данни, публична база данни или някаква комбинация от двете – преди да генерират отговор или да изпълнят задача.
Членовете на OPEA споделят, че са силно заинтересовани от създаването на инструментариум за корпоративен генеративен изкуствен интелект.
Въпреки че всяка от компаниите има различен акцент – Cloudera се фокусира върху облачната AI екосистема, Domino предлага приложения за генеративен ИИ за бизнеса, а VMware се занимава с инфраструктурата за AI – всички те показват интерес към развитието на ИИ и са стартирали продукти и партньорства в тази област.
Въпросът за наистина съвместна работа върху разработването на съвместими инструменти за ИИ в рамките на OPEA остава обаче отворен. Въпреки че компаниите могат да имат различни интереси и стратегии, колаборацията е възможна, особено ако имат обща точка, която опира до развитието на ИИ технологиите.
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1
ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2
ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR