Pocket에서 Readability로 옮겼다. Reeder에서 볼 수 있다는 이유만으로. 12.06.30 19:41
iusethis kms
17 개의 댓글이 있습니다.
Tweetings에서 타임라인의 링크를 꾹 눌러서 Read Later 명령으로 Readability에 등록하니 t.co 단축주소는 원본이 갔는데 me2.do는 그대로다. 어디서 손봐야 되는 문제인지 모르겠다.
delicious 있는 거 다 긁어서 readability에 옮길까? api는 있나본데. 근데 둘이 다루는 자료량이 달라서 애매하다.
cont. 아니다. delicious와는 자료랑도 다를뿐더러, 궁극적으로 private과 public의 성격 구분이 명확하다. 성격상 태그나 코멘트가 들어갈 것 같지도 않고.
cont. 그동안 북마킹으로 처리했던 부분이 사실은 readability의 영역이었던 것으로 생각되므로 다 옮기고, delicious는 개중에 정리해서 남길만한 것을 등록하는 식으로 해야 하겠다.
사파리 읽기 목록도 이쪽으로 통합하는 게 유용할 것 같아서 옮기고 있다. 사파리는 외부 접근성만 좀 좋았어도 활용하기 좋았을 건데.
크롬 책갈피에 쌓인 걸 딜리셔스로 보낼 수 있나 찾아봤더니 그냥 , 크롬 책갈피 관리자에서 내보내고 딜리셔스에서 가져와라 고 한다. 던져넣어 놨더니 몇 분 지나서 다 됐다고 메일이 왔다.
갑자기 계정이 잘못됐다고 다시 인증하라고 여기저기 뜨길래 뭔가 싶어서 열어봤더니 사이트가 죽었나보다.
구글 리더에서 (지금은 버려진 기능인) 공유 목록을 가져오는 방법을 찾아봤는데 사실상 제한이 많다 . 공식적으로 제공되는 리더의 내보내기 기능도 완전한 목록을 제공해주지는 않는다. ATOM 피드도 1000개까지만 나온다. (내보내기 보다 적다)
웹페이지를 직접 페이지마다 다 열어서 긁어오는 방법 밖에 없나보다.
공유를 해제하는 게 되면, 일단 내보내기에서 가져온 걸 해제하고, 다시 그만큼 빼내고 해제하는 식으로 점진적으로 진행할 수도 있을 것 같기는 한데.
bash에 while로 wget 돌리게 했는데, 총 1033 페이지를 긁었고, 리더 웹페이지에서 페이지 계속 내려서 마지막으로 본 항목과 같은 항목이 페이지 마지막에 출력됐다. 그럼 이게 전부가 맞겠지. 어떻게 딜리셔스에 밀어넣을지 생각 좀 해보자.
bash로 짜는 건 원래는 AutoPager라고 확장기능 써서 브라우저 안에서 했던 것인데 이건 뭐 브라우저가 너무 무거워져서 -_-; 하긴 천 페이지 넘게 다 읽었으면 펑 하고 터져버렸겠지.
bash로 긁은 구글 리더의 공유 자료는 일단 태그는 무시한다손 치더라도 각 URL을 모두 등록할 참이다. bash로 API 호출하는 건 대강 짰는데 URL 인코딩 처리된 한글을 주면 something went wrong이라고 그런다. 이런 불학무식한 것들(...)
cont. html_entity_decode() 적용하도록 스크립트 내부에서 PHP를 사용하고서야 처리가 됐다. 다들 그렇게 하라고 적어놨길래, 맘에는 안 들었지만. ENT_QUOTES 줘서 quot 같은 엔티티도 포함시켜야 했다. 어쩌구 wrong 하는 출력은 없다
cont. 근데 여전히 파일에 있던 거랑 올라간 태그 갯수랑은 안 맞네 -_-; 뭐지...
큐레이션 운운하려면, 다른 데 이미 쌓여 있던 자료를 어떻게 잘 가져올지도 고려해주면 좋겠다. 모두가 자기 서비스 구현에 집중할 뿐 그런 서비스를 여러 개 사용하는 사용자를 생각하지 않아서 야 곤란할 따름. 마케팅은 다른 곳의 고객을 우리쪽으로 이탈 시키는 게 기본이잖아?
Pocket과 Delicious 에도 잘 연동이 되면 좋겠다. 둘 사이는 ReadKit 이라는 앱에서 어느 정도 다리를 놔주고 있는데, 발견과 축적과 공유가 유기적으로 이어지는 건 아직 못 봐서...
Tweetings에서 타임라인의 링크를 꾹 눌러서 Read Later 명령으로 Readability에 등록하니 t.co 단축주소는 원본이 갔는데 me2.do는 그대로다. 어디서 손봐야 되는 문제인지 모르겠다.
12.07.01 03:18delicious 있는 거 다 긁어서 readability에 옮길까? api는 있나본데. 근데 둘이 다루는 자료량이 달라서 애매하다.
12.07.01 12:07cont. 아니다. delicious와는 자료랑도 다를뿐더러, 궁극적으로 private과 public의 성격 구분이 명확하다. 성격상 태그나 코멘트가 들어갈 것 같지도 않고.
12.07.02 02:50cont. 그동안 북마킹으로 처리했던 부분이 사실은 readability의 영역이었던 것으로 생각되므로 다 옮기고, delicious는 개중에 정리해서 남길만한 것을 등록하는 식으로 해야 하겠다.
12.07.02 02:50사파리 읽기 목록도 이쪽으로 통합하는 게 유용할 것 같아서 옮기고 있다. 사파리는 외부 접근성만 좀 좋았어도 활용하기 좋았을 건데.
12.07.02 02:54크롬 책갈피에 쌓인 걸 딜리셔스로 보낼 수 있나 찾아봤더니 그냥 , 크롬 책갈피 관리자에서 내보내고 딜리셔스에서 가져와라 고 한다. 던져넣어 놨더니 몇 분 지나서 다 됐다고 메일이 왔다.
12.07.06 03:30갑자기 계정이 잘못됐다고 다시 인증하라고 여기저기 뜨길래 뭔가 싶어서 열어봤더니 사이트가 죽었나보다.
12.07.07 14:50구글 리더에서 (지금은 버려진 기능인) 공유 목록을 가져오는 방법을 찾아봤는데 사실상 제한이 많다 . 공식적으로 제공되는 리더의 내보내기 기능도 완전한 목록을 제공해주지는 않는다. ATOM 피드도 1000개까지만 나온다. (내보내기 보다 적다)
12.07.07 22:57웹페이지를 직접 페이지마다 다 열어서 긁어오는 방법 밖에 없나보다.
12.07.07 22:59공유를 해제하는 게 되면, 일단 내보내기에서 가져온 걸 해제하고, 다시 그만큼 빼내고 해제하는 식으로 점진적으로 진행할 수도 있을 것 같기는 한데.
12.07.07 23:12bash에 while로 wget 돌리게 했는데, 총 1033 페이지를 긁었고, 리더 웹페이지에서 페이지 계속 내려서 마지막으로 본 항목과 같은 항목이 페이지 마지막에 출력됐다. 그럼 이게 전부가 맞겠지. 어떻게 딜리셔스에 밀어넣을지 생각 좀 해보자.
12.07.08 03:44bash로 짜는 건 원래는 AutoPager라고 확장기능 써서 브라우저 안에서 했던 것인데 이건 뭐 브라우저가 너무 무거워져서 -_-; 하긴 천 페이지 넘게 다 읽었으면 펑 하고 터져버렸겠지.
12.07.08 05:26bash로 긁은 구글 리더의 공유 자료는 일단 태그는 무시한다손 치더라도 각 URL을 모두 등록할 참이다. bash로 API 호출하는 건 대강 짰는데 URL 인코딩 처리된 한글을 주면 something went wrong이라고 그런다. 이런 불학무식한 것들(...)
12.07.11 04:38cont. html_entity_decode() 적용하도록 스크립트 내부에서 PHP를 사용하고서야 처리가 됐다. 다들 그렇게 하라고 적어놨길래, 맘에는 안 들었지만. ENT_QUOTES 줘서 quot 같은 엔티티도 포함시켜야 했다. 어쩌구 wrong 하는 출력은 없다
12.07.15 14:11cont. 근데 여전히 파일에 있던 거랑 올라간 태그 갯수랑은 안 맞네 -_-; 뭐지...
12.07.15 14:12큐레이션 운운하려면, 다른 데 이미 쌓여 있던 자료를 어떻게 잘 가져올지도 고려해주면 좋겠다. 모두가 자기 서비스 구현에 집중할 뿐 그런 서비스를 여러 개 사용하는 사용자를 생각하지 않아서 야 곤란할 따름. 마케팅은 다른 곳의 고객을 우리쪽으로 이탈 시키는 게 기본이잖아?
12.08.24 02:50Pocket과 Delicious 에도 잘 연동이 되면 좋겠다. 둘 사이는 ReadKit 이라는 앱에서 어느 정도 다리를 놔주고 있는데, 발견과 축적과 공유가 유기적으로 이어지는 건 아직 못 봐서...
13.03.15 01:32