Midjourney и другие нейросети обработки изображений - страница 720

 
Aleksey Nikolayev #:

Имхо, "почему" - едва ли не важнейший вопрос, даже если он прямо не был задан и на него не даётся ответ. Например, почему вообще некоторое конкретное событие попало в изучаемый медиапоток (стало "фактом") вместо тысяч других, не попавших туда?

Производство "фактов" - это уже некоторое искажение восприятия реальности.

Ответы на вопросы из категории "почему" можно разделить на две группы - освещающие обьективные причины событий по принципу причина-следствие - подлежащие проверкам, но не подлежащие сомнениям в случае истинности,... и ответы излагающие субьективные интерпретации, т.е. подлежащие сомнениям, но НЕ подлежащие проверкам.

Работа над этими вопросами возложена на аналитика-человека. Однако при наличии точных и чистых данных, статистических баз, а также опыта, знаний и мудрости, качество результатов анализа может быть очень высоким. 
[Удален]  
Тем временем разгадана тайна строительства пирамид

[Удален]  
Реter Konow #:
Дьявол в деталях, это верно. Поэтому смыслов сжатия информации может быть несколько:

1. Выжимка обьективных данных: источник - медиа-поток. Материалы - газетные статьи, live-трансляции, репортажи, экономические обзоры, политические дебаты...Фильтры - вопросы "что", "где", "когда" (НЕ "почему"). 

2. Отделение примесей: эмоциональные реакции, субьективные оценки, пропагандисткие манипуляции, рекламные вставки и различный инфомусор.

3. Выявление и упорядочивание ключевых деталей произошедших событий, условий и обстоятельств.

4. Краткое обобщение мнений экспертов и оценок специалистов по актуальным вопросам.

5. Составление собственных аналитических исследований на основе собранных кастомных баз данных. Взвешивание полученных фактов, противопостовление обобщенных мнений, поиск глубинной сути внутри анализируемой или прогнозируемой ситуации.

Да, детали тут забывать никак не стоит. Но оценивать их значимость легче и эффективнее после выжимки и упорядочивания информации, нежели до нее.

Считаю это необходимо в нынешних условиях информационной "зашлакованности". (Даже среди очень приличных инфо-источников и ресурсов).

В любом случае, процесс очищения данных не повредит, а послужит хорошей защитой разума от загрязнения.)
Палка о двух концах. Чтобы обучить модель отделять зерна от плевел в предметной области, нужно быть специалистом в этой области. Если модель обучена, то значит предметная область уже изучена и дальнейший сбор информации не требуется :)

Новая выдающаяся информация будет отфильтрована скорее всего, потому что не попадет в рамки нормальности для модели.  

Без шлака - это научные исследования, журналы, книжки. Там его по минимуму.

 
Aleksey Nikolayev #:

... Например, почему вообще некоторое конкретное событие попало в изучаемый медиапоток (стало "фактом") вместо тысяч других, не попавших туда?

Производство "фактов" - это уже некоторое искажение восприятия реальности.

В прошлом посте упустил этот контекст.

Да, в MSM есть такая штука как нарратив (повестка). Когда в медиа-пространство намеренно вбрасывают одни новости и газлайтят другие. Предвзятая выборка. Лечится диверсификацией информационных источников. Думаю, эту проблему можно преодолеть.
 
Maxim Dmitrievsky #:
Палка о двух концах. Чтобы обучить модель отделять зерна от плевел в предметной области, нужно быть специалистом в этой области. Если модель обучена, то значит предметная область уже изучена и дальнейший сбор информации не требуется :)

Без шлака - это научные исследования, журналы, книжки. Там его по минимуму.
Я не претендую на идею 100%-го очищения информации. Понимаю что это невозможно. Определенная степень загрязненности данных все равно неизбежна. Но если обученная модель проведет самую тяжелую и грязную работу по очистке, результат можно считать положительным.

В этой идеи меня привлекают два момента:

1. Очищение данных из загрязненного медиа-пространства перед их "употреблением".

2. Высокая рентабельность процесса работы с данными.

С минусами не спорю. Но обьективную пользу и рентабельность реализации задумки эти аргументы похоронить не могут.
[Удален]  
Реter Konow #:
Я не претендую на идею 100%-го очищения информации. Понимаю что это невозможно. Определенная степень загрязненности данных все равно неизбежна. Но если обученная модель проведет самую тяжелую и грязную работу по очистке, результат можно считать положительным.

В этой идеи меня привлекают два момента:

1. Очищение данных из загрязненного медиа-пространства перед их "употреблением".

2. Высокая рентабельность процесса работы с данными.

С минусами не спорю. Но обьективную пользу и рентабельность реализации задумки эти аргументы похоронить не могут.
Пока что МО может только в автоматизацию известных процессов, но не в интеллектуальный анализ данных.

Можно попросить гпт-о1 помочь создать солевой ИИ, который потенциально готов спасать мир :)
 
Maxim Dmitrievsky #:
Пока что МО может только в автоматизацию известных процессов, но не в интеллектуальный анализ данных
Доступные модели осиливают поверхностно-интеллектуальный анализ. Пробовал обобщение и сокращение материала. Конечно, зависит от конкретного материала, потому что иногда детали играют огромную роль, но для сжатия информации из общественных ресурсов, думаю, сойдет. )

Опять же, речь про чистку и сжатие общедоступной инфы, не про серьезные задачи...
[Удален]  
Реter Konow #:
Доступные модели осиливают поверхностно-интеллектуальный анализ. Пробовал обобщение и сокращение материала. Конечно, зависит от конкретного материала, потому что иногда детали играют огромную роль, но для сжатия информации из общественных ресурсов, думаю, сойдет. )

Опять же, речь про чистку и сжатие общедоступной инфы, не про серьезные задачи...

Ну такие задачки да, но это как бы такое себе. У меня пока что прижилось только как справочник по пакетам в питоне.

И все равно часто выдумывает новые пакеты, которых нет :)

Недавно попросил написать параллелизацию некоторого кода. Это жесть :)
 
Реter Konow #:
Не...) пишу сам. Пользоваться гпт чтобы сформулировать мысль - "западло".)) (Сорри за сленг)
Круто и так складно всё. Читаешь посты - контент - как в учебнике....)
 

Elevenlabs показала, как может генерировать голос по промту.

Мышь, огр и прочие. Далее озвучивает написанный текст.

//Данная технология демонстрирует, что скоро не только картинки будут оживать, но и со сценарием, звуком и голосами, подобранными ИИ автоматически.