Midjourney и другие нейросети обработки изображений - страница 864

 
Andrey Dik #:

Улыбнула накаченная плавничная икра.))) Legtail Sapiens (Ногохвост Разумный)

Заметил до ИИ, что у художников плохо с физикой: на многих таких образах вода с каким-то непонятным значением текучести. Будто слизь прозрачная.


Почему так делают художники - не знаю. Но ИИ хорошо скопировал стиль таких антифизиков.

 
fxsaber #:

Заметил до ИИ, что у художников плохо с физикой: на многих таких образах вода с каким-то непонятным значением текучести. Будто слизь прозрачная.


Почему так делают художники - не знаю. Но ИИ хорошо скопировал стиль таких антифизиков.

Рекламщики тож. Когда снимают, как красиво в замедленной съёмке течёт вода из бутылки, используют минеральное масло.

 
DeepSeek жалуется на DDoS на странице логина:  Due to large-scale malicious attacks on DeepSeek's services, registration may be busy. Please wait and try again. Registered users can log in normally. Thank you for your understanding and support.
 
«Тупость» остальных LLM по сравнению в дипсиком - на примере

Прошу добавить переменных по правилу: каждый следующий нейрон имеет на 1 вес больше

другие чаты:

input double RNN_L1_n1_w1 = 0.01;
input double RNN_L1_n1_sw = 0.01;
input double RNN_L1_n2_w1 = 0.02; // +0.01
input double RNN_L1_n2_sw = 0.02;
input double RNN_L1_n3_w1 = 0.03; // +0.01
input double RNN_L1_n3_sw = 0.03;
input double RNN_L1_n4_w1 = 0.04; // +0.01
input double RNN_L1_n4_sw = 0.04;


— Нет, я сказал не константы добавить, а переменные

input double RNN_L1_base_weight = 0.01; // Базовый вес для первого нейрона

input double RNN_L1_n1_w1 = RNN_L1_base_weight;
input double RNN_L1_n1_sw = RNN_L1_base_weight;

input double RNN_L1_n2_w1 = RNN_L1_n1_w1 + 0.01;
input double RNN_L1_n2_sw = RNN_L1_n1_sw + 0.01;

input double RNN_L1_n3_w1 = RNN_L1_n2_w1 + 0.01;
input double RNN_L1_n3_sw = RNN_L1_n2_sw + 0.01;

input double RNN_L1_n4_w1 = RNN_L1_n3_w1 + 0.01;
input double RNN_L1_n4_sw = RNN_L1_n3_sw + 0.01;

input double RNN_L1_n5_w1 = RNN_L1_n4_w1 + 0.01;
input double RNN_L1_n5_sw = RNN_L1_n4_sw + 0.01;


Дипксик с первого раза

// Neuron 1

input double RNN_L1_n1_w1 = 0.01;

input double RNN_L1_n1_sw = 0.01;


// Neuron 2

input double RNN_L1_n2_w1 = 0.01;

input double RNN_L1_n2_w2 = 0.01;

input double RNN_L1_n2_sw = 0.01;


// Neuron 3

input double RNN_L1_n3_w1 = 0.01;

input double RNN_L1_n3_w2 = 0.01;

input double RNN_L1_n3_w3 = 0.01;

input double RNN_L1_n3_sw = 0.01;


// Neuron 4

input double RNN_L1_n4_w1 = 0.01;

input double RNN_L1_n4_w2 = 0.01;

input double RNN_L1_n4_w3 = 0.01;

input double RNN_L1_n4_w4 = 0.01;

input double RNN_L1_n4_sw = 0.01;

...

...




UPD

О чём я говорил когда-то: интеллектуальность в задаче про единорога и его любимое лакомство начинается с сомнения ИИ насчёт фрукта. Да и в принципе с сомнения (пока все другие ЛЛМ как попугаи повторяют за пользователем)


Вот пример хорошей имитации интеллектуальности: часть процесса размышления и моя (намеренная) ошибка в промте, в котором я указал сделать «по шаблону» (с ошибкой):

...Но после добавления переменных, n1 имеет только w1 и sw, так как у него 2 веса. А n2 должен иметь w1, w2 и sw. Однако в текущем коде для n2 используется дважды w1:

RNN_L1_n2_w1 * inputs[i] + RNN_L1_n2_w1 * inputs[i]

Это явная ошибка. Возможно, пользователь хотел использовать w1 и w2 для n2. Нужно это исправить, заменив второй w1 на w2.


UPD

Согласен с автором ветки, читать рассуждения дипа - одно удовольствие
 

OpenAI выпустил o3-mini, как и обещал. На выбор три модели low, medium, high

https://openai.com/index/openai-o3-mini/


Выпуск OpenAI o3-mini

• Новая модель в серии reasoning, доступная в ChatGPT и API

• Поддерживает функции вызова функций, структурированные выходные данные и сообщения разработчику

• Поддерживает потоковую передачу и три уровня рационального использования


Преимущества и особенности

• Высокая скорость и низкая задержка по сравнению с o1-mini

• Поддержка поиска и возможность выбора уровня логического мышления

• Доступна для пользователей ChatGPT Plus, Team и Pro, корпоративный доступ через неделю


Производительность и точность

• Оптимизирована для STEM-систем, соответствует показателям o1 в математике, программировании и естественных науках

• Более точные и ясные ответы, сокращение ошибок на 39%

• Превосходит GPT-4o в сложных оценках безопасности и джейлбрейка


И знаете, что?

o3-mini почти ничем не лучше стандартной o1, хотя где-то и получше. Это не превосходство над DeepSeekR1, а просто равные условия. Продолжаем ждать полноценный o3, а не "мини".



Как Вы уже поняли, пользователи начали спрашивать, а зачем вообще нужны эти o3-Mini-Low и o3-Mini-Medium, когда есть o1.

Но не смотря ни на что, это шаг в ответ на конкуренцию бесплатного DeepSeekR1. Без этого бесплатной версии думающего GPT не было бы.

 

Riffusion

Конкурент Suno

//не было времени потестить. Вроде всё бесплатно


 

Есть русскоязычные ссылки, где скармливают ИИ олимпиадные задачи по программированию/математике?

ЗЫ https://codeforces.com/blog/entry/138852

 

Арты. Миджорни


 

Робоарты. Миджорни


 
Vitaliy Kuznetsov #:

Riffusion

Конкурент Suno

//не было времени потестить. Вроде всё бесплатно


Потестил немного. Исполнение на инструментах местами показалось лучше, чем у Suno, но сами мелодии в целом пока несколько хуже. Исполнение на русском языке тоже пока с бОльшим количеством неточностей. Есть то, чего нет у Suno, но и пока есть не всё, что есть у Suno. В целом, не исключено, что повторит успех DeepSeek, только несколько позже.