dataframe

    0

    1답변

    나는 시계열 분석을하고있다. 1971 년부터 2015 년까지 분기 별 생산성 데이터를 분석하고 싶습니다. 그러나 생산성은 2010 년 1 일인 생산성 지수로 표시됩니다. 이는 2010 년 4/4 분기의 평균값이 1임을 의미합니다. 초기 값으로 간주됩니다. 그런 다음 생산성의 증감이이 값과 관련하여 표현됩니다. > dput(head(prod_ts,179))

    -1

    1답변

    안녕과 파일을 CSV에 새 행을 추가하는 방법은 그래서 표시, 그래서 나는 CSV 파일로 네 개의 변수 (점수, 성별, 클래스와 이니셜)를 추가하려고 : with open ('untitled.csv','w') as file_out: file_out.write(score) file_out.write(real_player_class)

    0

    1답변

    두 개의 데이터 프레임이 있습니다. df1 (2584x15) 및 df2 (5665x45). df2는 msec 단위의 시간 열을 갖는 반면 df1은 초 단위의 시간 열을가집니다. df1의 시간 순간과 일치하는 df2의 모든 행을 추출하고 싶습니다.

    1

    1답변

    파이프에서 ggplot을 사용한 후 summarise을 수행 할 수 있습니까? 변수는 중요하지 않으며 나는 단지 탐색 목적을위한 변화를보고 있습니다. 따라서 변수를 저장하고 싶지는 않습니다. df %>% mutate(change = t2 - t1) %>% ggplot(aes(x = change)) + geom_histogra

    0

    1답변

    dtype = 'category'를 사용하려고 할 때 어떤 문제가 해결되면 오류가 발생합니다. 그들은 모두 내 코드는 아주 오래된 때문에 같이 나는 train = pd.read_csv("C:/shubhamprojectwork/Kagglecomp/livecomp/My music recomment/train.csv/train.csv", dtype={'msno'

    1

    1답변

    나는 2016 년부터 매 시간마다 행이있는 시간별 데이터 프레임으로 작업하고 있습니다.이 시간별 데이터 프레임에서 'df_outlayers'데이터 프레임에있는 일을 삭제하고 싶습니다. 매일 데이터 프레임. 나는 다음과 같은 시도 : remove = df_hourly.loc[df_outlayers.index] df_clean = df_hourly.drop(

    0

    1답변

    import pandas as pd import numpy as np from datetime import datetime data = {'date': ['1998-03-01 00:00:01', '2001-04-01 00:00:01','1998-06-01 00:00:01','2001-08-01 00:00:01','2001-05-03 00:00:01'

    2

    1답변

    제 Python 프로젝트에서 관계형 데이터 프레임을 사용하여 bigquery 테이블을 채울 필요가 있습니다. 새 테이블을 처음부터 만들고 처음 업로드 한 데이터가 테이블에 실제로 저장되는지 확인하는 데 많은 어려움을 겪고 있습니다. 나는 https://cloud.google.com/bigquery/streaming-data-into-bigquery#data

    2

    1답변

    분석 프로세스의 일부로 스파크와 스칼라를 사용하여 빅 데이터 세트를 처리하려고합니다. 샘플 입력 id, related_ids a, "b,e,f,i,j" b, "e,i,j,k,l" c, "f,i,j,m,n" d, "c,i,g,m,s" 예제 출력 A, "C, D" B "A, C ' C,"A, B " D" NULL " 데이터 프레임을 생성하는 것을 생

    1

    1답변

    나는이처럼 보이는 계층 구조로 multiindex와 팬더 DataFrame 있습니다 S, foo 및 bar는 계층 구조로 인덱스가, 그리고 날짜가 In [1]: df S A A B B C foo 1 2 3 4 5 bar 10 20 30 40 50 2016-09-25 0.09321 0