Изкуствен интелект – DevStyleR https://devstyler.bg Новини за разработчици от технологии до лайфстайл Mon, 06 May 2024 21:55:06 +0000 bg-BG hourly 1 https://wordpress.org/?v=6.5.3 OpenAI и Stack Overflow в Партньорство – ChatGPT ще Използва над 50 млн. Въпроси и Отговори https://devstyler.bg/blog/2024/05/07/openai-i-stack-overflow-v-partnorstvo-chatgpt-shte-izpolzva-nad-50-mln-vaprosi-i-otgovori/ Mon, 06 May 2024 21:49:00 +0000 https://devstyler.bg/?p=205821 ...]]> OpenAI и Stack Overflow обявиха стратегическо партньорство, което ще промени начина, по който софтуерните разработчици пишат код. Целта е AI моделите на OpenAI да бъдат тренирани като се използва голямото репозитори на Stack Overflow и така да се постигне по-висока продуктивност и точност на генерирания код.

Новото OverflowAPI ще позволи на потребителите и клиентите на OpenAI да имат достъп до модели, при които са използвани по-пълни, качествени и проверени от community-то данни, което е от изключително значение, когато се налага отстраняването на спешен проблем, например. Това ще даде възможност на разработчиците на софтуер да се фокусират върху по-технологични и по-приоритетни задачи, като за целта използват директно код, генериран от ChatGPT.

От друга страна Stack Overflow ще използва моделите на OpenAI за да доразвива OverflowAI. Според компаниите това партньорство се очаква да допринесе, най-общо казано, за благото на Stack Exchange community-то.

Брад Лайткеп, главен оперативен директор в OpenAI, акцентира върху значението на разнообразието за подобряване на полезността на AI.

“Нашето дълбоко партньорство със Stack Overflow ще ни позволи да подобрим изживяването на потребителите и разработчиците в нашите платформи, като се учим от различни езици, култури, предмети и индустрии”, каза той.

Прашант Чандрасекар, главен изпълнителен директор на Stack Overflow, подчерта въздействието на това стратегическо партньорство върху общността на разработчиците, която може да се похвали с над 59 милиона въпроса и отговора.

“Чрез това водещо в индустрията партньорство с OpenAI, ние се стремим да предефинираме изживяването на разработчиците чрез интегриране на силата на общността, най-добрите в класа си данни и иновативни AI изживявания”, каза Чандрасекар.

Освен това той подчерта ангажимента за напредък на социално отговорния AI с надеждни и точни данни, които формират гръбнака на бъдещите технологични решения.

Първата вълна от интеграции и нововъведения в резултат на партньорството се очакват в началото на 2024 г.

]]>
Snowflake Добави Още Един LLM в Екосистемата на ИИ https://devstyler.bg/blog/2024/04/25/snowflake-dobavi-oshte-edin-llm-v-ekosistemata-na-ii/ Thu, 25 Apr 2024 07:37:36 +0000 https://devstyler.bg/?p=204824 ...]]> Компанията за бази данни Snowflake добавя още един голям езиков модел (LLM) в екосистемата на изкуствения интелект. Snowflake Arctic LLM е проектиран за сложни корпоративни натоварвания, като ключов акцент в него е икономическата ефективност.

Той може ефективно да изпълнява задачи като генериране на SQL, писане на код и следване на инструкции, като постига или надминава референтните стойности в тези области в сравнение с моделите, които имаха много по-голям бюджет за обучение, отколкото беше необходимо.

Според Snowflake тези показатели са важни за предприятията, тъй като това са възможностите, необходими за изграждане на генеративни AI copilots.

Arctic е на едно ниво по отношение на корпоративната си интелигентност с LLama 3 8B и Llama 2 70B, но е използвал по-малко от половината от бюджетите за обучение като тези модели. Той също така е на едно ниво с Llama 3 70B, който има седемнадесет пъти по-висок бюджет за обучение.

Snowflake е на мнение, че ниските разходи за обучение ще позволят на компаниите да обучават персонализирани модели, без да се налага да харчат прекалено много пари.

“Изграждането на интелигентни модели от най-високо ниво за предприятията с помощта на LLM традиционно е прекомерно скъпо и изисква много ресурси и често струва десетки до стотици милиони долари”, пише екипът на Snowflake AI Research в публикация в блога.

Arctic е с отворен код под лиценза Apache 2.0.

“Предоставяйки на общността на ИИ водеща в индустрията интелигентност и ефективност по един наистина отворен начин, ние разширяваме границите на възможностите на ИИ с отворен код. Изследванията ни с Arctic значително ще увеличат възможностите ни да предоставяме надежден и ефективен ИИ на нашите клиенти”, казва Шридхар Рамасвами, главен изпълнителен директор на Snowflake.

Arctic LLM е част от семейството модели на ИИ Arctic, което включва и модел за вграждане на текст.

Arctic LLM вече е достъпен чрез Hugging Face, като се очаква скоро да е наличен и в Snowflake Cortex, Amazon Web Services (AWS), Microsoft Azure, NVIDIA API catalog, Lamini, Perplexity, Replicate и Together.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Прочетете още:
1. ОТ ПЪРВО ЛИЦЕ: РАЗХОДКА ИЗ НОВИЯ ОФИС НА DELASPORT
2. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
3. Ocado Technology създава ново звено в България


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>
New Relic Представи Решение за Мониторинг на AI Приложения https://devstyler.bg/blog/2024/04/25/new-relic-predstavi-reshenie-za-monitoring-na-ai-prilozheniya/ Thu, 25 Apr 2024 07:05:15 +0000 https://devstyler.bg/?p=204817 ...]]> New Relic въведе New Relic AI мониторинг, за да предостави на клиентите по-добра представа за състоянието на техните приложения с изкуствен интелект

“Мониторингът на New Relic AI предоставя на инженерите, работещи в областта на изкуствения интелект, силата на наблюдаемостта, като осигурява необходимата информация за отстраняване на грешки, наблюдение и подобряване на приложенията за изкуствен интелект, гарантирайки, че те работят по предназначение, предоставят точни резултати и отговарят на нововъзникващите стандарти за отговорно използване”, пише New Relic в публикация в блога, когато платформата е въведена за първи път в ранен достъп през ноември миналата година.

New Relic AI е вече общодостъпно и ще даде възможност на клиентите бързо да определят основната причина за проблемите с приложенията за изкуствен интелект, което ще позволи по-ефективно отстраняване и разрешаване на проблемите.

То предоставя цялостен поглед върху приложенията за изкуствен интелект и тяхната инфраструктура, като проследява показатели като брой заявки, време за отговор и използване на токени. От един изглед потребителите могат да видят тенденциите в отговорите на ИИ, да анализират настроенията и да видят отзивите на потребителите.

Клиентите могат също така да проследяват жизнения цикъл на отговорите на ИИ, което е полезно за отстраняване на проблеми с производителността и качеството, като халюцинации, например.

Инструментът предоставя и метод за сравняване на различни модели по отношение на производителността, разходите и качеството.

“Чрез проследяване на използването на токени в моделите на ИИ можете да определите кои модели са най-скъпи за изпълнение. След това можете да изберете по-евтини модели, за да оптимизирате архитектурата на приложението си за изкуствен интелект”, пише New Relic.

New Relic има над 60 интеграции в екосистемата на AI, включително популярни LLM, библиотеки за машинно самообучение, векторни бази данни и рамки за оркестрация.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Прочетете още:
1. Amazon Добави Още Актуализации в Amazon Bedrock
2. Изследователи: Windows Defender Може да Бъде Заблуден да Изтрие Бази Данни
3. ОТ ПЪРВО ЛИЦЕ: РАЗХОДКА ИЗ НОВИЯ ОФИС НА DELASPORT


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>
Amazon Добави Още Актуализации в Amazon Bedrock https://devstyler.bg/blog/2024/04/25/amazon-dobavi-oshte-aktualizatsii-v-amazon-bedrock/ Thu, 25 Apr 2024 06:19:09 +0000 https://devstyler.bg/?p=204799 ...]]> Amazon обяви някои основни актуализации на Amazon Bedrock – платформата, която предоставя на разработчиците достъп до модели на основата (FM) от компании за ИИ, сред които AI21 Labs, Anthropic, Cohere, Meta, Mistral AI, Stability AI и др.

Amazon Bedrock е управлявана услуга, която се занимава с базисната инфраструктура за тези модели, така че разработчиците да могат да създават генеративни AI приложения, без да се притесняват за управлението им.

“Продължаваме да въвеждаме бързи иновации за нашите клиенти, като удвояваме ангажимента си да им предоставяме най-пълния набор от възможности и избор от водещи в индустрията модели, като допълнително демократизираме иновациите в областта на генеративния изкуствен интелект в голям мащаб”, заяви д-р Свами Сивасубраманиан, вицепрезидент на AI и Data в AWS.

Технологичният гигант добави и нова опция за импортиране на потребителски модели, която позволява на разработчиците да добавят свои собствени модели в Amazon Bedrock. С това те ще могат да използват модели, специфични за дадена област, които са обучени върху техни собствени данни.

Компаниите могат да създават своите модели в Amazon SageMaker или друг инструмент и след това да ги импортират в Amazon Bedrock.

Импортираните модели преминават през автоматизиран процес на валидиране, за да се гарантира, че отговарят на подходящи предпазни мерки и отговорни стандарти за изкуствен интелект. В момента се поддържат три отворени моделни архитектури – Flan-T5, Llama и Mistral – и в бъдеще ще бъдат добавени още.

Amazon добави и нова възможност за оценка на моделите, която позволява на екипите да сравняват различни модели в Amazon Bedrock. Според Amazon компаниите могат да прекарат дни или седмици в оценяване на различни модели, за да определят дали те отговарят на техния случай на употреба. Целта на тази нова функция е значително да съкрати времето за оценка.

Разработчиците могат да избират критерии за оценка, като например точност или устойчивост, и да качват свой собствен набор от данни. След това Amazon Bedrock извършва оценки на различни модели и генерира отчет, който показва как се е представил всеки модел за всеки критерий.

Друга нова функция е Guardrails за Amazon Bedrock, която улеснява компаниите да прилагат защитни мерки, съобразени със собствените им политики за отговорен изкуствен интелект. Повечето модели имат свои собствени предпазни мерки, но последната може да блокира 85% от вредното съдържание.

Разработчиците също така могат да добавят филтри за премахване на лична информация, специфични думи или нецензурни изрази.

Други важни актуализации са свързани с Amazon Titan.

Amazon Titan Image Generator позволява на разработчиците да подобряват или редактират съществуващи изображения чрез подсказки на естествен език и вече е общодостъпен.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Прочетете още:
1. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
2. Ocado Technology създава ново звено в България
3. ОТ ПЪРВО ЛИЦЕ: РАЗХОДКА ИЗ НОВИЯ ОФИС НА DELASPORT


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>
Microsoft Разширява Капацитета на Центровете за Данни https://devstyler.bg/blog/2024/04/22/microsoft-razshiryava-kapatsiteta-na-tsentrovete-za-danni/ Mon, 22 Apr 2024 09:22:22 +0000 https://devstyler.bg/?p=204190 ...]]> Microsoft се стреми да разшири значително капацитета на своите центрове за данни, за да обслужва очакваното търсене на ИИ. Технологичният гигант ще утрои скоростта, с която се добавя капацитет още в началото на следващата финансова година.

Бумът на интереса към основните модели и генеративния ИИ води до нарастване на търсенето на допълнителна изчислителна мощност, както и на интереса към обучението на все по-големи модели.

Според документите, с които разполага Insider, Microsoft се подготвя да отговори на този проблем, като удвои капацитета на Azure през втората половина на тази финансова година, която продължава до края на юни.

Microsoft ще увеличи капацитета на допълнителните центрове за данни три пъти през първата половина на фискалната си година 2025.

Според гореспоменатите документи компанията внедрява “рекорден брой графични процесори”, за да се справи с натоварванията на AI, и е увеличила повече от два пъти общата си инсталирана база от ускорители през втората половина на миналата година.

Припомняме ви, че Microsoft имаше възнамерениe миналата година да похарчи “много милиарди долари” за изграждане на допълнителен капацитет в очакване на бързото нарастване на броя на клиентите, които искат да изпълняват проекти за генеративен ИИ.

Към края на 2023 г. данните на Synergy показват, че на САЩ се падат 51% от глобалния капацитет, измерен чрез MW критично ИТ натоварване, на Европа – 17%, а Китай е близо до тях с 16%.

Компаниите с най-голям отпечатък са всъщност тримата големи доставчици на облачни услуги – Amazon, Microsoft и Google. Те притежават 60% от целия капацитет на хипермащабните центрове за данни, следвани от Meta, Alibaba, Tencent, Apple, ByteDance и други сравнително малки хипермащабни оператори.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Прочетете още:
1. Ocado Technology създава ново звено в България
2. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
3. Впечатляващи Иновативни Проекти Победиха в Дни на Роботиката ’24 към ТУ-София


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>
Meta Пусна Първите Два Модела Llama 3 https://devstyler.bg/blog/2024/04/22/meta-pusna-parvite-dva-modela-llama-3/ Mon, 22 Apr 2024 06:45:09 +0000 https://devstyler.bg/?p=204172 ...]]> Meta представи следващото поколение на фамилията големи езикови модели Llama (LLM) с отворен код, разработено от компанията. Компанията определя Llama 3 за “най-добрите модели с отворен код от своя клас”.

Силициевият гигант пусна първите два модела от семейството Llama 3 – един с параметри 8B и един със 70B. Според Meta тези модели са значително по-добри от моделите Llama 2, като предлагат много по-нисък процент на фалшиви откази, подобрено подравняване и по-голямо разнообразие в отговорите на моделите. Специфичните възможности на моделите като, генериране на код и следване на инструкции също са значително подобрени.

Llama 3 беше предварително обучена върху повече от 15T токена от публично достъпни източници, поради което наборът от данни за обучение на Llama 3 е седем пъти по-голям от набора от данни за обучение на Llama 2 и съдържа четири пъти повече код.

Според Meta при разработването на Llama 3 е разработен и нов набор за оценка от хора за сравнителен анализ, който съдържа 1800 подсказки в 12 случая на употреба. Те включват искане на съвет, класификация, отговор на затворен въпрос, писане на код, творческо писане, извличане, отговор на отворен въпрос, разсъждение, пренаписване, обобщаване и др.

Моделът с параметри 70B победи Claude Sonnet, Mistral Medium, GPT 3.5 и Llama 2, използвайки този нов набор за оценка.

“Със създаването на Llama 3 си поставихме за цел да предоставим най-добрите отворени модели, които да са равностойни на най-добрите собствени модели, налични днес”, пише Meta.

Llama 3 е налична в AWS, Databricks, Google Cloud, Hugging Face, Kaggle, IBM WatsonX, Microsoft Azure, NVIDIA NIM и Snowflake. Освен това някои доставчици на хардуер също ще предложат поддръжка за нея, включително AMD, AWS, Dell, Intel, NVIDIA и Qualcomm.

През следващите няколко месеца компанията планира да актуализира Llama 3 с нови функции, по-дълги контекстни прозорци и по-големи размери на моделите.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Прочетете още:
1. GitLab Пусна GitLab Duo Chat с Над 40 Нови Функции
2. Ocado Technology създава ново звено в България
3. OpenSSF, CISA и DHS Обединяват Сили в Нов Проект с Отворен Код


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>
GitLab Пусна GitLab Duo Chat с Над 40 Нови Функции https://devstyler.bg/blog/2024/04/22/gitlab-pusna-gitlab-duo-chat-s-nad-40-novi-funktsii/ Mon, 22 Apr 2024 05:56:57 +0000 https://devstyler.bg/?p=204162 ...]]> Асистентът с изкуствен интелект GitLab Duo Chat на GitLab вече е общодостъпен като част от версията GitLab 16.11. Той може да отговаря на въпроси, които са свързани с конкретни проблеми, код, грешки, CI/CD конфигурации или самата платформа GitLab, както и да рефакторира съществуващия код и да генерира тестове.

“GitLab Duo Chat е готов да отговори на всичките ви въпроси за въвеждане в системата, което ще ви даде възможността да стартирате първия си проект”, пише в публикация в блога на GitLab.

Организациите могат да контролират до кои данни изкуственият интелект получава достъп за четене на ниво проект, подгрупа и група. GitLab заяви още, че данните на клиентите не се използват за обучение на моделите на ИИ.

“Независимо дали сте разработчик, или управлявате екип, GitLab Duo Chat може да ви даде възможност да се възползвате от AI, когато имате нужда през целия жизнен цикъл на разработката на софтуер – като същевременно ви помага да поддържате качеството на кода”, допълват от компанията.

Сред другите нови функции в GitLab 16.11 са:

  • Определяне на обхвата на политиката, което позволява на екипите по съответствието да задават прилагането на политиката към определена група проекти;
  • Анализ на продукта, включително ключови данни за използването и приемането на потребителите;
  • Възможност за деактивиране на личните токени за достъп от страна на корпоративните потребители;
  • Автоматично попълване при вмъкване на връзки към страници в уикипедия;
  • Странична лента, съдържаща информация за проекта;

Общо в GitLab 16.11 са добавени над 40 нови функции. Той е наличен в GitLab и в IDE, като VS Code и IDE на JetBrains. Той се предлага като допълнителна функция към GitLab Duo Pro, която е платена.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Прочетете още:
1. Ocado Technology създава ново звено в България
2. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
3. Заглавията на Xbox, Налични в PC Game Pass през Втората Половина на Април


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>
Tricentis Пусна Първият от Серията AI Copilots https://devstyler.bg/blog/2024/04/19/tricentis-pusna-parviyat-ot-seriyata-ai-copilots/ Fri, 19 Apr 2024 10:37:20 +0000 https://devstyler.bg/?p=203714 ...]]> Компанията за тестване Tricentis oбяви първия от серията AI copilots за своето портфолио за тестване – Testim Copilot, който добавя AI възможности към платформата за автоматизирано тестване Testim.

“Това е само началото – очакваме бъдещите версии на Tricentis Copilot да имат още по-големи ползи”, казва Мав Търнър, главен директор продукти и стратегии в Tricentis

С помощта на Testim Copilot потребителите могат да въведат текстово описание на това, което искат да тестват, и да получат JavaScript кода за този тест. В допълнение към предоставянето на тестовия код, той предоставя и обяснение на този код, което улеснява разбирането му и повторното използване за бъдещи тестове, в подобни случаи.

Чрез включването на генеративен ИИ в процеса на тестване Tricentis се надява да направи тестването достъпно за тестери с не толкова големи технически познания.
Testim Copilot може да спести време и да намали грешките.

“Testim Copilot поставя ИИ директно в ръцете на потребителя, като автоматично предлага тестови случаи и поправки, което означава повече време, отделено за работните процеси, за да се повиши производителността и да се подобри времето за пускане на пазара на нови приложения”, споделя още Търнър.

Според Tricentis клиентите, които вече използват нейните инструменти за изкуствен интелект, са намалили процента на неуспешни тестове с 16%.

Следващите продукти на Tricentis, които ще се сдобият с AI Copilots, ще бъдат Tricentis Tosca (понастоящем в бета версия) и Tricentis qTest.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Прочетете още:
1. От Състезанията по Информатика до MIT – Формулата за Успех на Румен Христов
2. Ocado Technology създава ново звено в България
3. Впечатляващи Иновативни Проекти Победиха в Дни на Роботиката ’24 към ТУ-София


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>
SAS Добави Разширени Възможности към SAS Viya https://devstyler.bg/blog/2024/04/17/sas-dobavi-razshireni-vazmozhnosti-kam-sas-viya/ Wed, 17 Apr 2024 13:41:23 +0000 https://devstyler.bg/?p=202631 ...]]> SAS добави разширени възможности към своята платформа за данни и изкуствен интелект SAS Viya и обяви общата наличност на SAS Viya Workbench, която е насочена основно към разработчици.

“Въпреки че SAS Viya е основата на софтуерната екосистема на SAS, компанията развива портфолиото си с иновативни продукти, за да отговори на разнообразните нужди на потребителите”, заяви Кати Ланг, директор на отдел “Изследване на софтуер за изкуствен интелект” в IDC.

Той допълва още, че новите предложения като SAS Viya Workbench имат за цел да повишат производителността, да подобрят ефективността и “да изградят доверие сред разработчиците на ИИ”.

Viya Workbench позволява на разработчиците и моделистите да работят на избран от тях език. Първоначално ще имат избор между SAS и Python, като се очаква R да бъде наличен до края на 2024 г. Viya Workbench предлага два варианта на среда за разработка – Jupyter Notebook/JupyterLab и Visual Studio Code.

Използването на аналитични процедури на SAS (PROCs) и нативните API на Python в рамките на Viya Workbench ускорява разработването на високопроизводителни модели на ИИ. Освен това персонализираните библиотеки на Python могат значително да подобрят скоростта и производителността с минимални промени в съществуващата програма на Python на разработчика.

Viya Workbench представлява гъвкава, мащабируема и ефективна среда за разработка, която може да се прекрати с минимална ИТ поддръжка. Специализираната аналитична среда разполага с персонализирана изчислителна мощност на CPU/GPU, която отговаря на нуждите на проекта.

“Многото предизвикателства, пред които са изправени разработчиците, не са просто дребни дразнители – те са пречки, които не позволяват да се отговори на въпросите и да се свърши работата”, заяви Джаред Питърсън, старши вицепрезидент на инженерния отдел на SAS.

Първоначално Viya Workbench ще бъде достъпен чрез Amazon AWS Marketplace през второто тримесечие. Очаква се в бъдеще да се предлагат допълнителни поддържани доставчици на облачни услуги и опция за внедряване на софтуер като услуга.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Прочетете още:
1. 5 Страхотни Функции, които да Очаквате Windows 11
2. Acer Отбеляза Пореден Ръст на Приходи
3. Компании се Обединяват, за Създаване на AI Инструменти за Предприятия


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>
Компании се Обединяват, за Създаване на AI Инструменти за Предприятия https://devstyler.bg/blog/2024/04/17/kompanii-se-obedinyavat-za-sazdavane-na-ai-instrumenti-za-predpriyatiya/ Wed, 17 Apr 2024 09:54:27 +0000 https://devstyler.bg/?p=202571 ...]]> Linux Foundation обяви старта на Open Platform for Enterprise AI (OPEA) – проект, чиято цел е насърчаване на разработването на отворени, модулни генеративни системи за изкуствен интелект.

Проектът е под ръководството на организацията LF AI and Data на Linux Foundation, която се фокусира върху платформени инициативи, свързани с изкуствения интелект и данните.

Изпълнителният директор на LF AI and Data Ибрахим Хададт посочва в съобщение за пресата, че очакванията са OPEA да проправи пътя за пускането на “подсилени”, “мащабируеми” генеративни системи за изкуствен интелект, които “използват най-добрите иновации с отворен код от цялата екосистема”.

“OPEA ще отключи нови възможности в областта на изкуствения интелект, като създаде подробна, композитна рамка, която е в челните редици на технологичните стекове. Тази инициатива е доказателство за нашата мисия да стимулираме иновациите и сътрудничеството с отворен код в рамките на общностите за ИИ и данни при неутрален и отворен модел на управление”, казва Хададт.

Сред други членове на проекта са Intel, Red Hat, собственост на IBM, Hugging Face, Domino Data Lab, MariaDB и VMware.

На въпроса какво тези компании могат да изградят заедно Хаддад загатва за няколко възможности, като например “оптимизирана” поддръжка за вериги от инструменти и компилатори за ИИ, които позволяват натоварванията с ИИ да се изпълняват на различни хардуерни компоненти, както и “хетерогенни” конвейери за генериране на разширени данни (RAG). RAG придобива все по-голяма популярност в корпоративните приложения на генеративния изкуствен интелект.

RAG моделите се позовават на тази външна информация – която може да бъде под формата на патентовани фирмени данни, публична база данни или някаква комбинация от двете – преди да генерират отговор или да изпълнят задача.

Членовете на OPEA споделят, че са силно заинтересовани от създаването на инструментариум за корпоративен генеративен изкуствен интелект.

Въпреки че всяка от компаниите има различен акцент – Cloudera се фокусира върху облачната AI екосистема, Domino предлага приложения за генеративен ИИ за бизнеса, а VMware се занимава с инфраструктурата за AI – всички те показват интерес към развитието на ИИ и са стартирали продукти и партньорства в тази област.

Въпросът за наистина съвместна работа върху разработването на съвместими инструменти за ИИ в рамките на OPEA остава обаче отворен. Въпреки че компаниите могат да имат различни интереси и стратегии, колаборацията е възможна, особено ако имат обща точка, която опира до развитието на ИИ технологиите.


ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 1

ГЛЕДАЙТЕ: Къде Инвестират ИТ Специалистите? Успешните Стратегии – Част 2

ГЛЕДАЙТЕ: ИТ Индустрията във Варна – част 2 | Епизод 2 | The BIG TECH #BG | DevStyleR


Последвайте ни във Facebook, Instagram, LinkedIn и YouTube.

]]>