0

약 50000 오류 데이터가있는 큰 데이터에 지수 SRGM을 적용하려고합니다. 이것은 영원히 달리는 데 소요되며 심지어 데이터 도구가 너무 많기 때문에 온라인 도구까지도이 데이터로 인해 충돌합니다. 여러분 중 누구도이 문제를 해결하고 MLE (Maximum likelihood estimates)를 얻기 위해 Exponential (Goel-Okumoto) 모델을 어떻게 적용 할 수 있습니까?대용량 데이터에 대한 소프트웨어 안정성 모델

답변

0

이 작업을 수행하는 가장 좋은 방법은 데이터를 실패 횟수 형식으로 변환하는 것입니다. 그래서, 같은 시간 간격 (연간)을 고려한 실패 횟수 변환을 수행하여 데이터 세트의 길이를 28로 줄였습니다. 그런 다음 데이터를 맞추고 예측을 할 수있는 실패 계산 모델을 적용 할 수있었습니다. 이 연구를 기반으로 한 기사는 https://books.google.com/books?id=uYiRDgAAQBAJ&pg=PA244&lpg=PA244&dq=An+Open+Source+Tool+to+Support+the+Quantitative+Assessment+of+Cybersecurity.+In+Proc.+International+Conference+on+Cyber+Warfare+and+Security&source=bl&ots=gJX5I0b8eH&sig=fp-EDU0z8AR1ZCVvjgqxrb1WF0c&hl=en&sa=X&ved=0ahUKEwjj1K6N09nUAhXBRCYKHZUWDfAQ6AEIMDAA#v=onepage&q=An%20Open%20Source%20Tool%20to%20Support%20the%20Quantitative%20Assessment%20of%20Cybersecurity.%20In%20Proc.%20International%20Conference%20on%20Cyber%20Warfare%20and%20Security&f=false

관련 문제