mstdn.social is one of the many independent Mastodon servers you can use to participate in the fediverse.
A general-purpose Mastodon server with a 500 character limit. All languages are welcome.

Administered by:

Server stats:

9.6K
active users

#large_language_models

0 posts0 participants0 posts today
Habr<p>Использование больших языковых моделей (LLM) в Access Management</p><p>Может ли искусственный интеллект революционизировать управление доступом? Есть ли подводные камни? Высокие затраты, риск «галлюцинаций», производительность в реальном времени, эффективность - что перевешивает? В данной статье мы разберемся, как можно применить LLM к управлению доступом для повышения эффективности и стоит ли.</p><p><a href="https://habr.com/ru/articles/915564/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">habr.com/ru/articles/915564/</span><span class="invisible"></span></a></p><p><a href="https://zhub.link/tags/access_management" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>access_management</span></a> <a href="https://zhub.link/tags/llm" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>llm</span></a> <a href="https://zhub.link/tags/%D0%B1%D0%BE%D0%BB%D1%8C%D1%88%D0%B8%D0%B5_%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>большие_языковые_модели</span></a> <a href="https://zhub.link/tags/%D0%B0%D1%83%D1%82%D0%B5%D0%BD%D1%82%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%86%D0%B8%D1%8F" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>аутентификация</span></a> <a href="https://zhub.link/tags/%D0%B0%D0%B2%D1%82%D0%BE%D1%80%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>авторизация</span></a> <a href="https://zhub.link/tags/%D0%B0%D1%83%D0%B4%D0%B8%D1%82_%D0%B1%D0%B5%D0%B7%D0%BE%D0%BF%D0%B0%D1%81%D0%BD%D0%BE%D1%81%D1%82%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>аудит_безопасности</span></a> <a href="https://zhub.link/tags/%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>машинное_обучение</span></a> <a href="https://zhub.link/tags/%D0%B3%D0%B0%D0%BB%D0%BB%D1%8E%D1%86%D0%B8%D0%BD%D0%B0%D1%86%D0%B8%D0%B8_%D0%B8%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>галлюцинации_ии</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/ai" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ai</span></a></p>
Habr<p>[Перевод] Как я нашёл уязвимость в ядре Linux при помощи модели o3</p><p>В этом посте я расскажу, как нашёл уязвимость нулевого дня в ядре Linux при помощи модели OpenAI o3. Уязвимость обнаружилась благодаря одному лишь API o3 — не потребовались никакая дополнительная настройка, агентские фреймворки и инструменты. Недавно я занимался аудитом уязвимостей ksmbd. ksmbd — это « сервер ядра Linux, реализующий в пространстве ядра протокол SMB3 для передачи файлов по сети ». Я приступил к этому проекту специально для того, чтобы взять отдых от разработки связанных с LLM инструментов, но после релиза o3 не мог избежать искушения и не использовать в качестве небольшого бенчмарка способностей o3 баги, найденные мной в ksmbd. В одном из следующих постов я расскажу о показателях o3 при обнаружении всех этих багов, а сегодня мы поговорим о том, как в процессе моего бенчмаркинга o3 обнаружила уязвимость нулевого дня. Найденной уязвимости присвоили обозначение CVE-2025-37899 (её патч выложен на Github ), это use-after-free в обработчике команды SMB logoff . Для понимания уязвимости необходимо знать о работе конкурентных подключений к серверу и о том, как они в определённых обстоятельствах могут обмениваться различными объектами. Модели o3 удалось разобраться в этом и найти место, где конкретный объект с автоматическим подсчётом ссылок освобождался, но продолжал оставаться доступным для другого потока. Насколько я понимаю, это будет первым публичным рассказом об уязвимости подобного типа, обнаруженной LLM.</p><p><a href="https://habr.com/ru/articles/912916/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">habr.com/ru/articles/912916/</span><span class="invisible"></span></a></p><p><a href="https://zhub.link/tags/openai_o3" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>openai_o3</span></a> <a href="https://zhub.link/tags/o3" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>o3</span></a> <a href="https://zhub.link/tags/llm" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>llm</span></a> <a href="https://zhub.link/tags/%D1%83%D1%8F%D0%B7%D0%B2%D0%B8%D0%BC%D0%BE%D1%81%D1%82%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>уязвимости</span></a> <a href="https://zhub.link/tags/useafterfree" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>useafterfree</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/%D0%B1%D0%BE%D0%BB%D1%8C%D1%88%D0%B8%D0%B5_%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>большие_языковые_модели</span></a></p>
Habr<p>Prompt-инженерия: уменьшение сложности промпта</p><p>Раздражает непредсказуемость ответов от LLM? Устали вкладывать бюджет в более мощные модели? Если ваша цель — стабильная автоматизация и надёжный клиентский опыт с помощью LLM, то, скорее всего, вы упираетесь в одну и ту же проблему: сложность промптов . Эта статья постарается помочь навсегда забыть о «случайных» ответах и вывести эффективность ваших LLM‑решений на новый уровень.</p><p><a href="https://habr.com/ru/articles/913062/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">habr.com/ru/articles/913062/</span><span class="invisible"></span></a></p><p><a href="https://zhub.link/tags/promptengineering" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>promptengineering</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/%D0%BF%D1%80%D0%BE%D0%BC%D0%BF%D1%82%D0%B8%D0%BD%D0%B6%D0%B8%D0%BD%D0%B8%D1%80%D0%B8%D0%BD%D0%B3" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>промптинжиниринг</span></a> <a href="https://zhub.link/tags/%D0%BF%D1%80%D0%BE%D0%BC%D0%BF%D1%82%D1%8B" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>промпты</span></a> <a href="https://zhub.link/tags/%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>языковые_модели</span></a></p>
KWI Essen<p><a href="https://mstdn.social/tags/KWIBlog" class="mention hashtag" rel="tag">#<span>KWIBlog</span></a>:<br />In her text “New Reading Scenes,” former Thyssen@KWI Fellow <br /><span class="h-card" translate="no"><a href="https://mastodon.social/@KatiaSchwerzmann" class="u-url mention">@<span>KatiaSchwerzmann</span></a></span> investigates the role of reading in the context of new developments in AI, stressing the need for ongoing investment in close and critical reading that considers AI practices and limitations. </p><p>🔎 <a href="https://blog.kulturwissenschaften.de/new-reading-scenes/" target="_blank" rel="nofollow noopener" translate="no"><span class="invisible">https://</span><span class="ellipsis">blog.kulturwissenschaften.de/n</span><span class="invisible">ew-reading-scenes/</span></a></p><p><a href="https://mstdn.social/tags/LLM" class="mention hashtag" rel="tag">#<span>LLM</span></a> <a href="https://mstdn.social/tags/large_language_models" class="mention hashtag" rel="tag">#<span>large_language_models</span></a> <a href="https://mstdn.social/tags/AI" class="mention hashtag" rel="tag">#<span>AI</span></a> <a href="https://mstdn.social/tags/Closereading" class="mention hashtag" rel="tag">#<span>Closereading</span></a> <span class="h-card" translate="no"><a href="https://wisskomm.social/@sfb1567" class="u-url mention">@<span>sfb1567</span></a></span></p>
BGDon<p>Apple is looking to announce new access to its foundation models during WWDC June 9th. This arrangement will let developers integrate Apple Intelligence across their apps. Apple may be betting this is a way to help it catch up with its competitors in the AI space. <a href="https://www.theverge.com/news/670868/apple-intelligence-ai-third-party-developer-access-model" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://www.</span><span class="ellipsis">theverge.com/news/670868/apple</span><span class="invisible">-intelligence-ai-third-party-developer-access-model</span></a> <a href="https://techhub.social/tags/Apple" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Apple</span></a> <a href="https://techhub.social/tags/AI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>AI</span></a> <a href="https://techhub.social/tags/LLMs" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LLMs</span></a> <a href="https://techhub.social/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://techhub.social/tags/AppleIntelligence" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>AppleIntelligence</span></a> <a href="https://techhub.social/tags/WWDC" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>WWDC</span></a></p>
Natalia<p>Osobiście nie jestem przeciwko modelom językowym typu chatGPT, Mistral, czy nasz polski Bielik. Tez w sumie nie obawiam się niepożądanych konsekwencji korzystania z nich, przynajmniej na tym poziomie, bo jak ktoś sam używa, to łatwo rozpoznać, co jest napisane przez taki model. Często też rezultaty są po prostu gorsze, niż jak samemu się zreliazuje jakiś projekt.</p><p>Ale fakt, jest to urocza zabawka i na uniwerku mamy z tego niezły fun, kiedy na obronie projektu, napisanego w większości przez chatGPT i tylko w połowie sprawdzonego przez nas, profesor mówi, żeby samemu sformułować jeszcze raz caly tekst. Najzabawniejsze jest to, że oni sobie zdają z tego sprawę i my też i końcowo dochodzimy do wniosku, że najlepiej samemu po prostu wszystko pisać, bo z modelami językowymi jest jeszcze więcej zbędnej pracy.</p><p>Serdeczne pozdrowienia dla mojego uniwersytetu i takie luźne, zdroworozsądkowe podejście.</p><p><a href="https://pol.social/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://pol.social/tags/university" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>university</span></a></p>
Spare Cores<p>We benchmarked 2k+ cloud servers for LLM inference speed (prompt processing and text generation) using models ranging from 135M to 70B parameters! 🤖</p><p>Read tech details, use our open-source tools, learn from the results at <a href="https://sparecores.com/article/llm-inference-speed" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">sparecores.com/article/llm-inf</span><span class="invisible">erence-speed</span></a></p><p><a href="https://fosstodon.org/tags/llm" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>llm</span></a> <a href="https://fosstodon.org/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://fosstodon.org/tags/benchmark" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>benchmark</span></a> <a href="https://fosstodon.org/tags/cloud" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>cloud</span></a></p>
Habr<p>Что вам нужно знать, если вы решили внедрить LLM</p><p>Вокруг LLM очень много мистификации. Мол, только особенные люди после специального образования, где их учили мудрые наставники, могут освоить таинство работы с LLM. Я уверен, что это не так. У меня была мечта написать небольшой гайд, с помощью которого любой сильный духом сможет разобраться, как эти LLM нужно использовать в своем продукте. Эта статья - воплощения моей мечты. В одном исследовании утверждается, что 80% всех ИИ проектов проваливаются. Сам не считал, но думаю, что порядок примерно такой. Давайте вместе попробуем это исправить. Разобраться с LLM</p><p><a href="https://habr.com/ru/articles/896598/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">habr.com/ru/articles/896598/</span><span class="invisible"></span></a></p><p><a href="https://zhub.link/tags/llm" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>llm</span></a> <a href="https://zhub.link/tags/%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D1%81%D0%B5%D1%82%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>нейросети</span></a> <a href="https://zhub.link/tags/%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>искусственный_интеллект</span></a> <a href="https://zhub.link/tags/artificial_intelligence" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>artificial_intelligence</span></a> <a href="https://zhub.link/tags/%D0%B2%D0%BD%D0%B5%D0%B4%D1%80%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B8%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>внедрение_ии</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/deeplearning" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>deeplearning</span></a> <a href="https://zhub.link/tags/%D0%B3%D0%BB%D1%83%D0%B1%D0%BE%D0%BA%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>глубокое_обучение</span></a> <a href="https://zhub.link/tags/%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>машинное_обучение</span></a></p>
Habr<p>CAG и KAG: Улучшенные методы дополнения генерации после RAG</p><p>Если вы следите за развитием технологий в области обработки естественного языка, то наверняка слышали о технологии Retrieval Augmented Generation (RAG), которая объединяет методы поиска с генеративными моделями для создания более интеллектуальных, обогащенных контекстом ответов. Но, как и любая технология, RAG имеет свои особенности, и именно здесь на помощь приходят два подхода: Cache-Augmented Generation (CAG) и Knowledge-Augmented Generation (KAG). В этой статье мы подробно рассмотрим, что представляют собой эти методы, чем они отличаются друг от друга и в чем заключается их преимущество. Давайте начнем! Читать далее -&gt;</p><p><a href="https://habr.com/ru/companies/raft/articles/891368/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">habr.com/ru/companies/raft/art</span><span class="invisible">icles/891368/</span></a></p><p><a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/language_processing" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>language_processing</span></a> <a href="https://zhub.link/tags/ai" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ai</span></a> <a href="https://zhub.link/tags/%D0%B8%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ии</span></a> <a href="https://zhub.link/tags/%D0%BF%D0%B0%D0%B9%D0%BF%D0%BB%D0%B0%D0%B9%D0%BD" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>пайплайн</span></a> <a href="https://zhub.link/tags/rag" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>rag</span></a></p>
Habr<p>[Перевод] 250 откликов за 20 минут: как я автоматизировал процесс ответов на вакансии</p><p>Будем откровенны: поиск работы — это отстой. Это мучительный цикл многократного копипастинга одной и той же информации, внесения сотен мелких правок в резюме и написания сопроводительных писем, которые должны выглядеть, как мольба, но не слишком очевидная. Обратим внимание на следующее: повторяющиеся задачи + структурированный процесс = идеальный кандидат для автоматизации. Поэтому я поступил так, как поступил бы любой разработчик в здравом уме — создал систему автоматизации всей этой фигни. В конечном итоге я смог разослать 250 откликов на вакансии за 20 минут. (Ирония заключается в том, что я получил оффер ещё до того, как закончил создавать эту систему. Подробнее об этом ниже.) В статье я расскажу, как я это сделал.</p><p><a href="https://habr.com/ru/companies/ruvds/articles/872114/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">habr.com/ru/companies/ruvds/ar</span><span class="invisible">ticles/872114/</span></a></p><p><a href="https://zhub.link/tags/%D0%B2%D0%B0%D0%BA%D0%B0%D0%BD%D1%81%D0%B8%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>вакансии</span></a> <a href="https://zhub.link/tags/%D1%80%D0%B5%D0%B7%D1%8E%D0%BC%D0%B5" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>резюме</span></a> <a href="https://zhub.link/tags/%D0%BF%D0%BE%D0%B8%D1%81%D0%BA_%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D1%8B" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>поиск_работы</span></a> <a href="https://zhub.link/tags/%D1%81%D0%BE%D0%B1%D0%B5%D1%81%D0%B5%D0%B4%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D1%8F" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>собеседования</span></a> <a href="https://zhub.link/tags/%D0%BF%D0%BE%D1%80%D1%82%D0%B0%D0%BB%D1%8B_%D0%BF%D0%BE_%D0%BF%D0%BE%D0%B8%D1%81%D0%BA%D1%83_%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D1%8B" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>порталы_по_поиску_работы</span></a> <a href="https://zhub.link/tags/%D0%B0%D0%B2%D1%82%D0%BE%D0%BC%D0%B0%D1%82%D0%B8%D0%B7%D0%B0%D1%86%D0%B8%D1%8F" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>автоматизация</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/chatgpt" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>chatgpt</span></a> <a href="https://zhub.link/tags/ruvds_%D0%BF%D0%B5%D1%80%D0%B5%D0%B2%D0%BE%D0%B4" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ruvds_перевод</span></a></p>
jobRxiv<p>Postdoc in Machine Learning </p><p>University of Florida</p><p>Join us as a machine learning postdoc in computational biology</p><p>See the full job description on jobRxiv: <a href="https://jobrxiv.org/job/university-of-florida-27778-postdoc-in-machine-learning/?feed_id=89394" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">jobrxiv.org/job/university-of-</span><span class="invisible">florida-27778-postdoc-in-machine-learning/?feed_id=89394</span></a></p><p><a href="https://mas.to/tags/computational_biology" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>computational_biology</span></a> <a href="https://mas.to/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://mas.to/tags/machine_learning" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>machine_learning</span></a> <a href="https://mas.to/tags/ScienceJobs" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ScienceJobs</span></a> <a href="https://mas.to/tags/hiring" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>hiring</span></a> <a href="https://mas.to/tags/research" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>research</span></a><br><a href="https://jobrxiv.org/job/university-of-florida-27778-postdoc-in-machine-learning/?feed_id=89394" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">jobrxiv.org/job/university-of-</span><span class="invisible">florida-27778-postdoc-in-machine-learning/?feed_id=89394</span></a></p>
jobRxiv<p>Postdoc in Machine Learning </p><p>University of Florida</p><p>Join us as a machine learning postdoc in computational biology</p><p>See the full job description on jobRxiv: <a href="https://jobrxiv.org/job/university-of-florida-27778-postdoc-in-machine-learning/?feed_id=86412" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">jobrxiv.org/job/university-of-</span><span class="invisible">florida-27778-postdoc-in-machine-learning/?feed_id=86412</span></a></p><p><a href="https://mas.to/tags/computational_biology" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>computational_biology</span></a> <a href="https://mas.to/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://mas.to/tags/machine_learning" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>machine_learning</span></a> <a href="https://mas.to/tags/ScienceJobs" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ScienceJobs</span></a> <a href="https://mas.to/tags/hiring" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>hiring</span></a> <a href="https://mas.to/tags/research" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>research</span></a><br><a href="https://jobrxiv.org/job/university-of-florida-27778-postdoc-in-machine-learning/?feed_id=86412" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">jobrxiv.org/job/university-of-</span><span class="invisible">florida-27778-postdoc-in-machine-learning/?feed_id=86412</span></a></p>
Habr<p>Как мы обучили Mistral 7B русскому языку и адаптировали для объявлений Авито</p><p>Привет! Я Настя Рысьмятова, руковожу командой LLM в Авито . Эта статья — про то, какие задачи мы решаем с помощью языковых моделей и как адаптируем их под себя. Мой опыт будет интересен прежде всего тем, кто тоже занимается большими языковыми моделями в крупных продуктовых компаниях. А всем остальным любопытно будет узнать, как модели учатся и решают конкретные задачи Авито — например, помогают пользователям писать тексты объявлений.</p><p><a href="https://habr.com/ru/companies/avito/articles/852958/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">habr.com/ru/companies/avito/ar</span><span class="invisible">ticles/852958/</span></a></p><p><a href="https://zhub.link/tags/LLM" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LLM</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/large_language_model" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_model</span></a> <a href="https://zhub.link/tags/nlp" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>nlp</span></a> <a href="https://zhub.link/tags/ai" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ai</span></a> <a href="https://zhub.link/tags/avito" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>avito</span></a></p>
Habr<p>Быстрее, выше, сильнее в распознавании речи: SpeechKit, SaluteSpeech или SpeechFlow?</p><p>Меня зовут Екатерина, я IT-архитектор в ML-команде SimbirSoft , специализируюсь на темах по обработке естественного языка. Сегодня мы обсудим особенности решения задач распознавания речи. Проверим наши предположения на собственных аудиоданных, которые будем переводить из акустического сигнала в текст тремя передовыми коммерческими системами: Yandex SpeechKit , SaluteSpeech от Сбера и SpeechFlow от Bluepulse. Статья будет полезна тем, кто интересуется тенденциями развития машинного обучения или хочет присмотреться к возможностям и уязвимым местам существующих решений для их внедрения в бизнес-приложения. Погрузиться ⚡</p><p><a href="https://habr.com/ru/companies/simbirsoft/articles/833882/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">habr.com/ru/companies/simbirso</span><span class="invisible">ft/articles/833882/</span></a></p><p><a href="https://zhub.link/tags/nlp_" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>nlp_</span></a>(natural_language_processing) <a href="https://zhub.link/tags/%D0%BE%D0%B1%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B5%D1%81%D1%82%D0%B5%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE_%D1%8F%D0%B7%D1%8B%D0%BA%D0%B0" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>обработка_естественного_языка</span></a> <a href="https://zhub.link/tags/stt" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>stt</span></a> <a href="https://zhub.link/tags/asr" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>asr</span></a> <a href="https://zhub.link/tags/yandex_speechkit" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>yandex_speechkit</span></a> <a href="https://zhub.link/tags/salutespeech" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>salutespeech</span></a> <a href="https://zhub.link/tags/hugging_face" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>hugging_face</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/nlp" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>nlp</span></a></p>
Habr<p>[Перевод] Эволюция языковых моделей для генерации текста с высоты птичьего полёта</p><p>В этой статье я хотел бы поделиться своими заметками о том, как языковые модели развивались в последние десятилетия. Этот текст может послужить туториалом для новичков и помочь понять ключевые концепции языковых моделей на протяжении их истории. Стоит отметить, что я не углубляюсь в детали реализации и математические аспекты, однако уровень описания достаточен для правильного понимания эволюции LMs.</p><p><a href="https://habr.com/ru/articles/828968/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">habr.com/ru/articles/828968/</span><span class="invisible"></span></a></p><p><a href="https://zhub.link/tags/%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>языковые_модели</span></a> <a href="https://zhub.link/tags/%D0%B1%D0%BE%D0%BB%D1%8C%D1%88%D0%B8%D0%B5_%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>большие_языковые_модели</span></a> <a href="https://zhub.link/tags/%D0%B3%D0%B5%D0%BD%D0%B5%D1%80%D0%B0%D1%86%D0%B8%D1%8F_%D1%82%D0%B5%D0%BA%D1%81%D1%82%D0%B0" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>генерация_текста</span></a> <a href="https://zhub.link/tags/%D1%82%D1%80%D0%B0%D0%BD%D1%81%D1%84%D0%BE%D1%80%D0%BC%D0%B5%D1%80%D1%8B" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>трансформеры</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/text_generation" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>text_generation</span></a> <a href="https://zhub.link/tags/transformers" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>transformers</span></a> <a href="https://zhub.link/tags/evolution" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>evolution</span></a> <a href="https://zhub.link/tags/%D1%8D%D0%B2%D0%BE%D0%BB%D1%8E%D1%86%D0%B8%D1%8F" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>эволюция</span></a></p>
Habr<p>LLM field landscape</p><p>Ради чего эта статья? Сфера генеративных моделей сегодня кипит, булькает и шипит — каждый день выходят новые статьи, новые бенчмарки, новая модель вырывается вперёд на Arena , открывается очередной AI-стартап… Только мы успеваем потрогать одну модель и сделать свои выводы, выходит другая, а Sam Altman в каждом интервью намекает, насколько GPT-5 будет умнее, лучше и круче, чем GPT-4. В общем, за сферой LLM сегодня очень трудно уследить. Но уследить хочется. Хочется сделать снэпшот, в котором отразить максимально актуальное состояние области на текущий момент, насколько это возможно , чтоб было от чего отталкиваться потом. На самом деле, это задача для серьёзного научного review, но лучшее враг хорошего, поэтому начну я со статьи на Хабре.</p><p><a href="https://habr.com/ru/articles/814665/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">habr.com/ru/articles/814665/</span><span class="invisible"></span></a></p><p><a href="https://zhub.link/tags/llm" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>llm</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/%D0%B1%D0%BE%D0%BB%D1%8C%D1%88%D0%B8%D0%B5_%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>большие_языковые_модели</span></a> <a href="https://zhub.link/tags/nlp" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>nlp</span></a></p>
Habr<p>Интерактивный NPC на Unreal Engine</p><p>Всем привет. Я хочу с вами поделиться результатами эксперимента по созданию интерактивного NPC на Unreal Engine 5 . Speech recognition , Text-to-speech , LLM модели, LipSync , MetaHuman и все это без использования сторонних сервисов . Видео работы и ссылка на демо версию прилагается. Если вам интересно увидеть результат и обсудить перспективы интерактивных NPC в игровой индустрии - добро пожаловать под кат.</p><p><a href="https://habr.com/ru/articles/807561/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">habr.com/ru/articles/807561/</span><span class="invisible"></span></a></p><p><a href="https://zhub.link/tags/speech_recognition" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>speech_recognition</span></a> <a href="https://zhub.link/tags/text_to_speech" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>text_to_speech</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/unreal_engine_5" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>unreal_engine_5</span></a> <a href="https://zhub.link/tags/metahuman" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>metahuman</span></a> <a href="https://zhub.link/tags/gamedev" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>gamedev</span></a> <a href="https://zhub.link/tags/%D0%B8%D0%B3%D1%80%D1%8B" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>игры</span></a></p>
Quantum Observer<p>Is OpenAI Opening up to Quantum? <a href="https://thequantuminsider.com/?p=2361476" rel="nofollow noopener" target="_blank"><span class="invisible">https://</span><span class="ellipsis">thequantuminsider.com/?p=23614</span><span class="invisible">76</span></a> <a href="https://mastodon.quantumobserver.eu/tags/Quantum_Computing_Business" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Quantum_Computing_Business</span></a> <a href="https://mastodon.quantumobserver.eu/tags/Uncategorized" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Uncategorized</span></a> <a href="https://mastodon.quantumobserver.eu/tags/AI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>AI</span></a> <a href="https://mastodon.quantumobserver.eu/tags/ChatGPT" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ChatGPT</span></a> <a href="https://mastodon.quantumobserver.eu/tags/lambeq" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>lambeq</span></a> <a href="https://mastodon.quantumobserver.eu/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://mastodon.quantumobserver.eu/tags/OpenAI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>OpenAI</span></a> <a href="https://mastodon.quantumobserver.eu/tags/Quantinuum" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Quantinuum</span></a> <a href="https://mastodon.quantumobserver.eu/tags/quantumdaily" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>quantumdaily</span></a> With a new hire, subtle announcements and an obvious need, experts are wondering if OpenAI is investigating the use of quantum to power its AI empire. The Register, for example, reported that the artificial intelligence giant has recently acquired a new addition to its team: Ben Bartlett, a former quant</p>
Quantum Observer<p>Quantinuum Researchers Shine a Light Into AI’s ‘Black Box’ <a href="https://thequantuminsider.com/?p=2360629" rel="nofollow noopener" target="_blank"><span class="invisible">https://</span><span class="ellipsis">thequantuminsider.com/?p=23606</span><span class="invisible">29</span></a> <a href="https://mastodon.quantumobserver.eu/tags/Quantum_Computing_Business" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Quantum_Computing_Business</span></a> <a href="https://mastodon.quantumobserver.eu/tags/Research" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Research</span></a> <a href="https://mastodon.quantumobserver.eu/tags/Uncategorized" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Uncategorized</span></a> <a href="https://mastodon.quantumobserver.eu/tags/AI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>AI</span></a> <a href="https://mastodon.quantumobserver.eu/tags/arXiv" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>arXiv</span></a> <a href="https://mastodon.quantumobserver.eu/tags/interpretability" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>interpretability</span></a> <a href="https://mastodon.quantumobserver.eu/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://mastodon.quantumobserver.eu/tags/LLM" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LLM</span></a> <a href="https://mastodon.quantumobserver.eu/tags/Quantinuum" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Quantinuum</span></a> <a href="https://mastodon.quantumobserver.eu/tags/quantumdaily" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>quantumdaily</span></a> Insider Brief Quantinuum researchers published a paper reveals a shift towards creating artificial intelligence (AI) frameworks that users can understand and trust. The team is addressing concerns about the vagueness of AI’s decision-making process, often referre</p>
Habr<p>Метод Binoculars обещает высокую точность обнаружения текста от больших языковых моделей</p><p>ChatGPT пишет не хуже человека, но можно ли обнаружить «машинность» в тексте? Хотя некоторым компаниям было бы выгоднее представить всё так, будто результат работы языковых моделей неотличим от человеческого, исследования в этом направлении активно ведутся. Авторы научной статьи «Spotting LLMs With Binoculars: Zero-Shot Detection of Machine-Generated Text» ( arXiv:2401.12070 ) утверждают, что их метод имеет низкий уровень ложноположительных срабатываний (0,01 %), правильно обнаруживает текст от языковых моделей в 90 % случаев и работает для нескольких семейств современных продуктов.</p><p><a href="https://habr.com/ru/articles/789466/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">habr.com/ru/articles/789466/</span><span class="invisible"></span></a></p><p><a href="https://zhub.link/tags/LLM" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LLM</span></a> <a href="https://zhub.link/tags/%D0%91%D0%AF%D0%9C" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>БЯМ</span></a> <a href="https://zhub.link/tags/large_language_model" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_model</span></a> <a href="https://zhub.link/tags/%D0%B1%D0%BE%D0%BB%D1%8C%D1%88%D0%B0%D1%8F_%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D0%B0%D1%8F_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>большая_языковая_модель</span></a> <a href="https://zhub.link/tags/large_language_models" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>large_language_models</span></a> <a href="https://zhub.link/tags/%D0%B1%D0%BE%D0%BB%D1%8C%D1%88%D0%B8%D0%B5_%D1%8F%D0%B7%D1%8B%D0%BA%D0%BE%D0%B2%D1%8B%D0%B5_%D0%BC%D0%BE%D0%B4%D0%B5%D0%BB%D0%B8" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>большие_языковые_модели</span></a> <a href="https://zhub.link/tags/OpenAI" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>OpenAI</span></a> <a href="https://zhub.link/tags/Binoculars" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Binoculars</span></a> <a href="https://zhub.link/tags/%D0%98%D0%98" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ИИ</span></a> <a href="https://zhub.link/tags/%D0%B8%D1%81%D0%BA%D1%83%D1%81%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%B8%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>искусственный_интеллект</span></a> <a href="https://zhub.link/tags/%D0%BE%D0%B1%D0%BD%D0%B0%D1%80%D1%83%D0%B6%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE_%D1%82%D0%B5%D0%BA%D1%81%D1%82%D0%B0" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>обнаружение_машинного_текста</span></a> <a href="https://zhub.link/tags/%D0%B0%D0%BD%D1%82%D0%B8%D1%81%D0%BF%D0%B0%D0%BC" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>антиспам</span></a> <a href="https://zhub.link/tags/GPTZero" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>GPTZero</span></a> <a href="https://zhub.link/tags/DetectGPT" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>DetectGPT</span></a> <a href="https://zhub.link/tags/Ghostbuster" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ghostbuster</span></a> <a href="https://zhub.link/tags/ChatGPT" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ChatGPT</span></a> <a href="https://zhub.link/tags/GPT3" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>GPT3</span></a> <a href="https://zhub.link/tags/GPT4" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>GPT4</span></a> <a href="https://zhub.link/tags/Falcon" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Falcon</span></a> <a href="https://zhub.link/tags/Falcon7B" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Falcon7B</span></a> <a href="https://zhub.link/tags/Falcon7Binstruct" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Falcon7Binstruct</span></a></p>