while i < 100{ data[i,]=messages[[1]]$messages[[i]]$id i=i+1 } так не выходит
потому что непонятно, куда писать, колонку надо указать
почему у меня создан пустой дата фрейм я указываю в цикле номер строки i
а счетчик где-то объявляется? вот так работает вроде data = data.frame(id = rep(0, 5)) # data = data.frame() i <- 1 while (i < 5) { data[i, 'id'] <- i i <- i + 1 }
уж если здесь речь про питон и R пошла, то такое — совсем не по R. Векторизация, data.table + работа по ссылкам. А это классический подход, как учат на питоне. Питоне не в части DS, а вообще, потому что он пробрался и в школы и в универы. Цикл с присвоением — последнее, что можно делать. Это не C. Накладные расходы — на 4-6 порядков выше оптимального кода. Но это уже культура разработки, которую на быстрокурсах не прививают. Начинать правильно мыслить лучше с самого начала. Потом будет сложно переделать. И код и себя. Изначальный вопрос уже неправильный.
Да я в курсе, что не по Р Не знаю чем заменить, если честно Map и Lapply знаю, но не понимаю как их применить в разрезе индексов Знаю что решение на поверхности и оно простое, но не доходит Может от жары(
Влад, напиши пример воспроизводимого кода, чтобы была задача, а не абстракт. Там делов на одну строчку, поправим
скинь результат dput(messages) на небольшой выборке
dt <- data.table::rbindlist(messages[[1]]$messages) dt$id ? Одна строка, как и говорил
круть))) спасибо большое)
я хотел бы сказать "зато я ничего не подключил", но, конечно, согласен)
Наверно, по исходному вопросу надо будет так dt[1:1000, id]
анализа данных сводится к сводным таблицам в экселе ну или построение отчета в power bi, если нужно юзать постоянно. Так вот вопрос, стоит ли заменить эксель в своей работе полностью на R, или нет никакого резона это делать? Отчаянно хочется, как аналитику, больше работать в R, но пока, чисто в работе нашел ему применение только, когда надо соединить данные из разных бд, и построить связи между клиентами по графам.
басня о корреляции того, что мороженое может коррелировать с преступностью, которую любят рассказывать неокрепшей публике или Талеб рассказывающий сказки. Здесь нужен опыт. Говорить о том, что нельзя всегда выигрывать на бирже тоже необоснованно. Сколько? 10%в год, вполне реально. 20%-это тоже реальность. В общем и делать 30% в год это тоже реальность, но для этого нужен опыт и практика. Также со многими понятиями алгоритма на временных рядах. Преподаватель Вшэ на ю тубе показывает в лекции по R, что всё это шум и предсказывать нельзя, но как он объяснит что мой друг использует примитивный анализ временных рядов и чтение новостей, при этом никогда не слышал ничего о статистике и делает уже лет 5 минимум по 25%-30% в год...
Plumber API, а вторым процессом Shiny - приложение? 2. Оба процесса используют одну и ту же функцию расчета, внутри которой несколько моделей. 3. API - это для разработчиков интерфейса большой системы, где куча всякой функциональности 4. Shiny для тестирования расчетов и прототипирования функциональности 5. Пока не очень понимаю как будет отрабатывать rstudioapi::jobRunScript , который я привык использовать для локального тестирования plumber API ? 6. Как прописывать несколько портов ? 7. А может вообще сделать лучше два контейнера как некое православное решение ? Вопросы скорее архитектурные, интересует мнение со стороны
вопрос: на R одно и тоже действие допустим джойны можно сделать несколькими конструкциями языка. я предпочитаю всегда где можно использовать только Base R в результате tidy мне не очень то удобен так как с ним мало наработался И вот вопрос: Как считаете правильно ли отдавать приоритет Базовым конструкциям/методам перед различными библиотеками/вариациями ? И как Вы работаете в команде где то-то онли Tidy кто то vromm кто то только data.table ?
случайных строк из файла сэмплировать? dt<-fread"file.csv" dt<-slice_sampledt, prop=0.05 Хочу сделать такое без чтения всего файла. Первые n строк нельзя, записи в файле упорядочены. Нашёл только это, на винде запихнуть shuf в fread нельзя. Получается вариант- только в самом файле вне R строки перемешивать?
кто-нибудь аналитику на сервисах? грубо говоря, сейчас у меня друзья работают на стеке firebase + bigquery + datastudio. стек немного кривой и неудобный. по вашему опыту, в чем проще и дешевле делать дашборды, в чем - пилить всякие отчеты? нормальная ли бд bigquery? использует ли кто-нибудь гугл-колабы для кастомных отчетов? датастудио в этом смысле не очень удобная, например.
даже не в ML и возник вопрос: на каких данных можно проверить гипотезу о том, что среди useRов больше людей с бэкграундом в статистике, социологии, психологии и вот этом всём, а среди питонистов преобладают переобувшиеся программисты?
скажем, до 10 тыс. строк через dplyr/data.table, а не через всякие примочки в Excel? Сегодня мой босс сделал сводными таблицами за минуту то, с чем я колупался час с лишним. У меня сложилось впечатление, что тот же data.table в такой ситуации — никому не нужный мозготрах, тормозящий рабочий процесс, а преимущество в скорости на таких массивах роли не играет
но нужен Ваш совет. Мб есть бест практик Ситуация Через R достаю много различных данных и сохраняю в csv формате на сервере более 1000 тыс файлов каждый день. На выходе имею 15+ таблиц с кол-вом строк до 10 лямов. Ранее обрабатывали через PQ + модель данных и тот с горем пополам все это дело кушал. Для нужд отдела 2 сотрудников - этого решения хватало. Но как это обычно бывает, пришли соседи из отдела Х и сказали, хотим так-же только быстрее а то PQ медленно, сделайте нам! Задача - нужно все данные из тысячи файликов агрегировать, смерджить, расчеты иметь возможность провести и дать возможность нашим аналитикам гонять эти цифры туды сюды в .... экселе. Данные обновляются/добавляются раз в день загружаются данные через R + планировщик Из того что дано - локальный серв с правами Из знаний - R, sql оконки, джойны , ексель vba, PQ. Немного теории о БД. Если что то допом понадобится - гугл под рукой, изучить не боюсь хД Собственно - куда копать, в какую сторону смотреть? Желательно с минимальными вложениями времени. мнения, мысли, все будет плюсом. Если стесняетесь тут или писать долго, можно в личку или через аудио сообщеньку. Как говорится - буду рад любой помощи Из того что порекомендовали - олап куб создать. Мб есть еще вары по проще??