Midjourney и другие нейросети обработки изображений - страница 859
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
По мнению Талеба, будущие падения рынка могут быть в два или даже в три раза больше, чем падение на 17%, о котором сообщила Nvidia в начале этой недели. Произошедший накануне обвал уничтожил 589 миллиардов долларов из оценки производителя чипов, это стало рекордным падением в истории рынка.
«Это начало адаптации людей к реальности. Потому что теперь они понимают, что теперь все уже не безупречно. У вас есть маленькая царапина на стекле», - сказал Талеб.
Кто это написал: пользователь чатуГПТ или чат пользователю?
Сегодня был опубликован Международный отчет о безопасности искусственного интеллекта
International AI safety report
Краткое содержание документа
Полный расклад документа
1. Возможности общего назначения ИИ
Развитие ОИИ: ОИИ развивается через процесс, называемый глубоким обучением, который использует большие объемы данных и вычислительных ресурсов. Процесс разработки включает в себя сбор и предварительную обработку данных, предварительное обучение, тонкую настройку, интеграцию системы, развертывание и пост-развертыренный мониторинг.
Текущие возможности: ОИИ может выполнять задачи, такие как помощь программистам, создание реалистичных изображений, ведение бесед на многих языках, поиск и обобщение информации, работа с несколькими модальностями (текст, видео, речь) и решение задач по математике и науке на уровне выпускников.
Будущие возможности: Эксперты расходятся во мнениях относительно темпов будущего прогресса. Некоторые считают, что возможности будут развиваться медленно, другие — что быстро или даже чрезвычайно быстро.
2. Риски, связанные с ОИИ
Вредоносное использование:
Фейковый контент: ОИИ может использоваться для создания фейкового контента, который наносит вред отдельным лицам, включая неконсенсусный интимный контент.
Манипуляция общественным мнением: ОИИ может генерировать убедительный контент в больших масштабах, что облегчает манипуляцию общественным мнением.
Кибератаки: ОИИ может облегчить проведение кибератак, снижая технические барьеры и позволяя злоумышленникам с различным уровнем навыков проводить атаки.
Биологические и химические атаки: ОИИ может предоставлять инструкции и рекомендации по воспроизведению известного биологического и химического оружия, а также способствовать разработке новых токсичных соединений.
Сбои:
Проблемы с надежностью: ОИИ может быть ненадежным, что может привести к физическим и психологическим травмам для потребителей, а также к репутационным, финансовым и юридическим убыткам для организаций.
Предвзятость: ОИИ может усиливать социальные и политические предвзятости, что приводит к дискриминационным результатам.
Потеря контроля: Гипотетические сценарии, в которых ОИИ выходит из-под контроля, вызывают серьезную озабоченность, хотя текущие системы не обладают такими возможностями.
Системные риски:
Рынок труда: ОИИ может автоматизировать широкий спектр задач, что может привести к значительным изменениям на рынке труда.
Разрыв в исследованиях и разработках ИИ: Исследования и разработки ОИИ в настоящее время сосредоточены в нескольких западных странах и Китае, что может увеличить зависимость многих стран от этого небольшого числа стран.
Концентрация рынка и единые точки отказа: Небольшое число компаний доминирует на рынке ОИИ, что может сделать общества более уязвимыми к системным сбоям.
Экологические риски: Растущее использование вычислительных ресурсов в разработке и развертывании ОИИ увеличивает потребление энергии, воды и сырья.
Риски для конфиденциальности: ОИИ может способствовать нарушениям конфиденциальности, например, если злоумышленники используют ИИ для получения информации о конкретных лицах.
Нарушения авторских прав: ОИИ обучается и создает произведения творческого выражения, что ставит под сомнение традиционные системы согласия на данные, компенсации и контроля.
3. Технические подходы к управлению рисками
Обзор управления рисками: Управление рисками в контексте ОИИ сложно из-за широкого спектра возможных применений и контекстов, а также из-за того, что разработчики мало знают о том, как работают их модели.
Общие проблемы для управления рисками и разработки политики:
Технические проблемы: Автономные агенты ОИИ, широкий спектр вариантов использования, недостаток понимания внутренней работы моделей, стойкие вредоносные поведения и разрыв в оценке безопасности.
Социальные проблемы: Быстрое развитие ОИИ, сильное конкурентное давление, концентрация власти в крупных технологических компаниях и отсутствие прозрачности.
Идентификация и оценка рисков: Оценка ОИИ на предмет опасностей является неотъемлемой частью управления рисками. Ученые используют различные методы для изучения опасностей во время разработки системы, до развертывания и после развертырения.
Снижение и мониторинг рисков:
Обучение более надежным моделям: существует несколько методов, которые могут помочь сделать модели более безопасными, но все они имеют ограничения.
Мониторинг и вмешательство: Мониторинг и вмешательство — это дополнительные подходы для предотвращения сбоев и вредоносного использования систем ИИ.
Технические методы для конфиденциальности: Методы и технологии для снижения рисков конфиденциальности в ОИИ охватывают различные категории рисков.
Заключение
Сегодня утром был опубликован Международный отчет о безопасности искусственного интеллекта
Там же упоминался DeepSeek в качестве эффективной модели, когда генерации удешевляются.
И было немного информации об o3
Тесты на программирование и научное мышление: o3 показала значительно более сильные результаты по сравнению с предыдущими моделями на ряде самых сложных тестов в области программирования, абстрактного и научного мышления.
Тест ARC-AGI: o3 достигла прорыва в ключевом тесте на абстрактное мышление, который многие эксперты, включая профессора Йошуа Бенжио, считали недостижимым до недавнего времени.
//Пропиарят в итоге по полной.
Microsoft и OpenAI расследуют, обучался ли DeepSeek на украденных данных американских компаний в сфере ИИ
https://habr.com/ru/news/877548/
ДипСик получала гранты от правительства Китая. Так что полные реальные затраты действительно могли быть много выше заявленных.
Я купил машину за 5 миллионов рублей. Оказывается, если мне помогла теща, то машина стоила дороже.