有沒有這麼棒啊!
07/01/2010, 03:18 - 有的沒的
前七局是電腦自已玩的,只打後三局,一局得19分,七局共得26分,提前結束比賽,但有真人或MLB沒有這麼棒啊!




發表回應 發表回應 ( 497預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 3 / 415 )

Apple Remote Desktop 棒
06/19/2010, 21:56 - Apple
Apple Remote Desktop 不是一般的 remote control,今天遠端昇級一部Mac,download好之後會要求重開機。重開機之後,Apple Remote Desktop 還是看得到安裝過程,要等到真正的重開才會Disconnect/Reconnect。我想,在安裝階段時系統並還沒進入重開,而是安裝完成之後才是真正的重開機。不過這樣還是比別的remote control程式好多了啊!


發表回應 發表回應 ( 18預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 2.9 / 498 )

OS X 10.6.4
06/17/2010, 12:29 - Apple
很大啊!


發表回應 發表回應 ( 508預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 3.1 / 363 )

Twitter is over Capacity
06/09/2010, 22:47 - 今天
正想推一下文章,結果 OS X 的 Twidget 一直送不出去,到 http://twitter.com 一看,就看到這樣子:Twitter is Over Capacity。是有要改什麼東西嗎?會是自動縮短推文中的URL嗎?還是就單純的容量不足呢?


發表回應 發表回應 ( 592預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 3 / 353 )

Safari5 reader
06/08/2010, 10:20 - Apple
換了Safari5之後,發現有些網站會在位址列出現"reader"字樣,按下去之後出現了沒有廣告的網頁內容耶,還可以直接印出,很方便。不過不是每個網站都會出現reader選項。而且Safari反應變快了。



Safari Reader
Safari Reader removes annoying ads and other visual distractions from online articles. So you get the whole story and nothing but the story. It works like this: As you browse the web, Safari detects if you’re on a web page with an article. Click the Reader icon in the Smart Address Field, and the article appears instantly in one continuous, clutter-free view. You see every page of the article — whether two or twenty. Onscreen controls let you email, print, and zoom. Change the size of the text, and Safari remembers it the next time you view an article in Safari Reader.

From Apple Safari Reader

是Safari自已決定選擇比較長的內文顯示在Safari reader內,太短的就不會出現了。


Safari5 reader 很直接,好用啊,可以過濾廣告,也可以用比較大的字體,方便閱讀。

這個功能,現在除了Safari5之外,Google Chrome 可以外加Readability Redux而Firefox可以用Readability。IE的話...就說不要再用IE了啦!

Reference:
Apple Safari 5 Reader feature is fantastic
Get Safari's new "Reader" feature in Chrome and firefox
發表回應 發表回應 ( 593預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 3 / 370 )

原來還是有破關的時候啊
06/04/2010, 09:40 - 有的沒的
在iPod Touch上,一直很喜歡玩的棒球遊戲"Baseball 09",因為可以選只當投手,或打擊,不用管其他的位置,專心扮好自已的角色就好,其他的就交給隊友了(電腦)。我是選擇投手的角色,左投會投直球、卡特球、下沉球、曲球、變速球。玩了一陣子,知道要如何對付電腦的打擊者之後,拿了很多次的冠軍,260勝-11敗、防禦率1.66。但今天以4勝1敗打完冠軍戰之後,出現了畫面說已經進入名人堂了,算是破關了。這...我原來想拿到300勝的說!

發表回應 發表回應 ( 569預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 3 / 335 )

看完 vgod的為什麼我用Mac之後
05/26/2010, 09:22 - 生活
看完 vgod的為什麼我用Mac之後:

我是從AppleII開始進入腦世界的,經過AppleSoft,Apple DOS 3.2,CP/M 至 DOS,Windows 之後 UNIX 才開始出現 SCO XENIX,SCO UNIX,Solaris, BSD, Linux 一直到OS X,現在也大都是用OS X做我的工作, 因為正如你說的,OS X有Windows和UNIX之長, 又可以用 X-Window, 不用太煩惱driver的問題, 不過一樣我有一半的時間是掛在Linux上,用的是Slackware. 用過了各種Linux Distribution 如Gentoo,RedHat之後,我回到了最開始使用的Slackware,因為簡單,沒有太高的要求, 而我都是自compile我要的程式,從kernel到gcc到x-window等. 而我還是大部份都在 Command Line 工作,用vi程式.有時用各種UNIX的小工具grep,awk,sed再不然用perl就可以做完很多事了,在windows下是用GNUWin32加上MinGW就可以將UNIX的使用經驗有限度的搬到Windows下了,因為我有時要改改別人的VB程式....Qrz. 現在叫我去用Windows真有一種想要砸掉的衝動.

使用電腦,而開始想了解,並學習如何自己寫程式,是很多人共同的腳步. 從 AppleSoft 的 Integer BASIC到6502和Z80的Assembly而到用Turbo C/Turbo Pascal寫DOS的常駐程式及Device Driver,到Windows的GUI的VB和C++,一直到Apple Cocoa Objective-C,其他的Perl/awk/grep/sed等就不說了,這整個過程只能說,學習過程非常有趣,但若是要靠寫程式過日子就非常恐怖了,根本是退一步即無死所啊(用SQL的好像是例外).
發表回應 發表回應 ( 697預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 2.9 / 465 )

作學問的方法
05/20/2010, 12:13 - 想到的
我想到一件事,畢業論文是否可以通過,是由你的老師所認定的。也就是說他說可以,就大都可以通過而畢業。所以要畢業,先要讓老師認定你有達到畢業學位要求的資格。方法是多問、多看,多出現,多參與討論。讓老師經由這些討論的過程,認定你有資格可以畢業。最簡單的方法就是經常出現在老師的面前,不要放棄每次和老師討論的機會。討論的過程中,發問、回答及自我歸訥出結論很重要。

論文的內容反而是次之的問題,因為真正要學的是“作學問的方法“,而一般認為的創新,並不是主要的要求。畢竟要在一門學問中提出創新,並不是一年、兩年可以作到的。而且也不可能要求人人一定要有創新才可以達到畢業的資格。一位老師如何了解你作學問的方法是否正確、並符合畢業學位的要求呢?多參與討論、多看別人的論文、提出自已的看法,並想想如何解決別人已發現及未發現的問題。所以學位的真正目的不在要求創新,而是發現問題,解決問題的方法及態度。

發表回應 發表回應 ( 594預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 3.1 / 320 )

Twitter Backup Script 4
05/19/2010, 13:50 - Open Source
說不改,結果還是動手了啊...Qrz,加了將 URL 連結 tag 出來,比較方便直接點閱。


#!/bin/sh
#
USER=Tasuka
DATE=`date +%m%d%y-%H%M`
TIMEZONE=CST
TIMESHIFT=8
#
export all_proxy="http://proxy.ncu.edu.tw:3128"
#
FILENAME=twitter_backup
SUFFIX=html
#
FILE=$FILENAME.$SUFFIX
BACKUP_FILE=$FILENAME.1.$SUFFIX
#
if [ -f $FILE ];then
LAST=`cat $FILE | \
grep "META NAME" | \
grep "TWITTES" | \
awk -F" " '{print $3}' | \
awk -F"=" '{print $2}' | \
awk -F"\"" '{print $2}' \
`

LASTID=`cat $FILE | \
grep "META NAME" | \
grep "ID" | \
awk -F" " '{print $3}' | \
awk -F"=" '{print $2}' | \
awk -F"\"" '{print $2}' \
`

mv $FILE $BACKUP_FILE
else
LAST=0
LASTID=0
fi

MAX=`curl "http://api.twitter.com/1/statuses/user_timeline/$USER.xml?page=1&count=20" | \
grep "<statuses_count>" | \
awk -F">" '{print $2}' | \
awk -F"<" '{print $1}' | \
sort -u| \
awk 'BEGIN{ \
i=0; \
j=0 \
} \
{ \
j=$1; \
if (j>i) \
i=j \
} \
END { \
print i \
} \
' \
`

MAX_ID=`curl "http://api.twitter.com/1/statuses/user_timeline/$USER.xml?page=1&count=20" | \
grep "<id>" | \
awk -F">" '{print $2}' | \
awk -F"<" '{print $1}' | \
sort -u | \
awk 'BEGIN { \
i=0; \
j=0 \
} \
{ \
j=$1; \
if (j>i) \
i=j \
} \
END { \
print i \
} \
' \
`

if [ $LAST == 0 ];then
if [ $MAX -ge 3200 ];then
COUNTER=3200
else
COUNTER=$MAX
fi

PAGE=$((COUNTER%200))
if [ $PAGE != 0 ];then
PAGE=$((COUNTER/200))
PAGE=$((PAGE+1))
else
PAGE=$((COUNTER/200))
fi

echo "<HTML LANG=UTF8>" > $FILE
echo "<META NAME=\"TWITTES\" CONTENT=\"$MAX\">" >> $FILE
echo "<META NAME=\"ID\" CONTENT=\"$MAX_ID\">" >> $FILE
echo "<HEAD><TITLE>$USER@Twitter Backup Since $DATE</TITLE></HEAD><BODY>" >> $FILE
echo "<H1><A HREF=http://twitter.com/$USER>@$USER</A>'s Twitter Backup Since $DATE</H1>
<H4>$MAX Tweets</H4><BR>" >> $FILE
echo "<H4>" >> $FILE

i=1
while [ $i -le $PAGE ]; do
curl "http://api.twitter.com/1/statuses/user_timeline/$USER.xml?page=$i&count=200" | \
sed -e "/<text>/N;/<\/text>$/s/\n/ /g" -e "/>/s/>/</g" | \
awk -F"<" 'BEGIN{ flag=0;T=8; } \
{ \
if($2=="status" && flag==1){ \
flag=0 \
} \
if($2=="created_at" && flag==0){ \
split($3,datetime," "); \
year=datetime[6]; \
day=datetime[3]; \
if(datetime[2]=="Jan"){ \
month=1; \
md=31; \
}else \
if(datetime[2]=="Feb"){ \
month=2; \
if(year%4==0 && year%100!=0 || year%400==0){ \
md=29; \
}else{ \
md=28; \
} \
}else \
if(datetime[2]=="Mar"){ \
month=3; \
md=31; \
}else \
if(datetime[2]=="Apr"){ \
month=4; \
md=30; \
}else \
if(datetime[2]=="May"){ \
month=5; \
md=31; \
}else \
if(datetime[2]=="Jun"){ \
month=6; \
md=30; \
}else \
if(datetime[2]=="Jul"){ \
month=7; \
md=31; \
}else \
if(datetime[2]=="Aug"){ \
month=8; \
md=31; \
}else \
if(datetime[2]=="Sep"){ \
month=9; \
md=30; \
}else \
if(datetime[2]=="Oct"){ \
month=10; \
md=31; \
}else \
if(datetime[2]=="Nov"){ \
month=11; \
md=30; \
}else \
if(datetime[2]=="Dec"){ \
month=12; \
md=31; \
} \
split(datetime[4],time,":"); \
hour=((time[1]+T)%24); \
mins=time[2]; \
secs=time[3]; \
if((time[1]+T)%24==1){ \
day++; \
if(day/md==1){ \
day=day%md; \
month++; \
if(month/12==1){ \
month=month%12; \
year++; \
} \
} \
} \
printf "<P>\n %s-%s-%s %2s:%2s:%2s <BR>\n", \
year,month,day,hour,mins,secs \
} \
if($2=="text"){ \
printf "%s </P>\n",$3 \
} \
if($2=="user"){ \
flag=1 \
} \
}' | \
sed -e "/[hH][tT][tT][pP]:/s//http:/g" \
-e "/[hH][tT][tT][pP][sS]:/s//https:/g" \
-e "/[fF][tT][pT]:/s//ftp:/g" \
-e "s/http:\/\/[[:graph:]\.\/]*/<A HREF='&'>&<\/A> /g" \
-e "s/https:\/\/[[:graph:]\.\/]*/<A HREF='&'>&<\/A> /g" \
-e "s/ftp:\/\/[[:graph:]\.\/]*/<A HREF='&'>&<\/A> /g" >> $FILE
i=$((i+1))
done

echo "<CENTER><H6>Power with " >> $FILE
echo "<A HREF=http://www.gnu.org/software/gawk/>awk</A>," >> $FILE
echo "<A HREF=http://www.gnu.org/software/sed/>sed</A>," >> $FILE
echo "<A HREF=http://curl.haxx.se/>curl</A>," >> $FILE
echo "<A HREF=http://www.gnu.org/software/bash/>bash</A>" >> $FILE
echo "</H6></CENTER>" >> $FILE
echo "</BODY></HTML>" >> $FILE

else
COUNTER=$((MAX-LAST))

if [ $COUNTER != 0 ]; then
PAGE=$((COUNTER%200))

if [ $PAGE != 0 ];then
PAGE=$((COUNTER/200))
PAGE=$((PAGE+1))
else
PAGE=$((COUNTER/200))
fi

echo "<HTML LANG=UTF8>" > $FILE
echo "<META NAME=\"TWITTES\" CONTENT=\"$MAX\">" >> $FILE
echo "<META NAME=\"ID\" CONTENT=\"$MAX_ID\">" >> $FILE
echo "<HEAD><TITLE>$USER@Twitter Backup Since $DATE</TITLE></HEAD><BODY>" >> $FILE
echo "<H1><A HREF=http://twitter.com/$USER>@$USER</A>'s Twitter Backup Since $DATE</H1>
<H4>$MAX Tweets</H4><BR>" >> $FILE
echo "<H4>" >> $FILE

i=1
while [ $i -le $PAGE ]; do
curl "http://api.twitter.com/1/statuses/user_timeline/$USER.xml? \
since_id=$LASTID&page=$i&count=200" | \
sed -e "/<text>/N;/<\/text>$/s/\n/ /g" -e "/>/s/>/</g" | \
awk -F"<" 'BEGIN{ flag=0;T=8; } \
{ \
if($2=="status" && flag==1){ \
flag=0 \
} \
if($2=="created_at" && flag==0){ \
split($3,datetime," "); \
year=datetime[6]; \
day=datetime[3]; \
if(datetime[2]=="Jan"){ \
month=1; \
md=31; \
}else \
if(datetime[2]=="Feb"){ \
month=2; \
if(year%4==0 && year%100!=0 || year%400==0){ \
md=29; \
}else{ \
md=28; \
} \
}else \
if(datetime[2]=="Mar"){ \
month=3; \
md=31; \
}else \
if(datetime[2]=="Apr"){ \
month=4; \
md=30; \
}else \
if(datetime[2]=="May"){ \
month=5; \
md=31; \
}else \
if(datetime[2]=="Jun"){ \
month=6; \
md=30; \
}else \
if(datetime[2]=="Jul"){ \
month=7; \
md=31; \
}else \
if(datetime[2]=="Aug"){ \
month=8; \
md=31; \
}else \
if(datetime[2]=="Sep"){ \
month=9; \
md=30; \
}else \
if(datetime[2]=="Oct"){ \
month=10; \
md=31; \
}else \
if(datetime[2]=="Nov"){ \
month=11; \
md=30; \
}else \
if(datetime[2]=="Dec"){ \
month=12; \
md=31; \
} \
split(datetime[4],time,":"); \
hour=((time[1]+T)%24); \
mins=time[2]; \
secs=time[3]; \
if((time[1]+T)%24==1){ \
day++; \
if(day/md==1){ \
day=day%md; \
month++; \
if(month/12==1){ \
month=month%12; \
year++; \
} \
} \
} \
printf "<P>\n %s-%s-%s %2s:%2s:%2s <BR>\n", \
year,month,day,hour,mins,secs \
} \
if($2=="text"){ \
printf "%s </P>\n",$3 \
} \
if($2=="user"){ \
flag=1 \
} \
}' | \
sed -e "/[hH][tT][tT][pP]:/s//http:/g" \
-e "/[hH][tT][tT][pP][sS]:/s//https:/g" \
-e "/[fF][tT][pT]:/s//ftp:/g" \
-e "s/http:\/\/[[:graph:]\.\/]*/<A HREF='&'>&<\/A> /g" \
-e "s/https:\/\/[[:graph:]\.\/]*/<A HREF='&'>&<\/A> /g" \
-e "s/ftp:\/\/[[:graph:]\.\/]*/<A HREF='&'>&<\/A> /g" >> $FILE
i=$((i+1))
done

cat $BACKUP_FILE | \
sed -e "/^<HTML/d" \
-e "/^<META/d" \
-e "/^<HEAD>/d" \
-e "/^<H1>/d" \
-e "/^<H4>/d" >> $FILE
fi
fi

if [ $COUNTER == 0 ];then
mv $BACKUP_FILE $FILE
fi

發表回應 發表回應 ( 792預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 3 / 363 )

Twitter Backup Script 3
05/18/2010, 14:35 - Open Source
這個版本,可以自動判斷新的 Twittes 而不會全部再 download 一次了。將這次的推數資料和ID放在HTML 的 META tag 中,以方便下次使用。要用的話,要將 USER= 換成自已的 Twitter Screen Name
這個 Script 就可以放到 Cron 中每個月自已備份一次了。


#!/bin/sh
#
USER=Tasuka
DATE=`date +%m%d%y-%H%M`
#FILENAME=/tmp/twitter_backup.$DATE.html
FILENAME=twitter_backup
SUFFIX=html
#
FILE=$FILENAME.$SUFFIX
BACKUP_FILE=$FILENAME.1.$SUFFIX
#
if [ -f $FILE ];then
LAST=`cat $FILE | \
grep "TWITTES" | \
awk -F" " '{print $3}' | \
awk -F"=" '{print $2}' | \
awk -F"\"" '{print $2}' \
`

LASTID=`cat $FILE | \
grep "ID" | \
awk -F" " '{print $3}' | \
awk -F"=" '{print $2}' | \
awk -F"\"" '{print $2}' \
`

mv $FILE $BACKUP_FILE
else
LAST=0
LASTID=0
fi

MAX=`curl "http://api.twitter.com/1/statuses/user_timeline/$USER.xml?page=1&count=20" | \
grep "<statuses_count>" | \
awk -F">" '{print $2}' | \
awk -F"<" '{print $1}' | \
sort -u| \
awk 'BEGIN{ \
i=0; \
j=0 \
} \
{ \
j=$1; \
if (j>i) \
i=j \
}
END { \
print i \
} \
' \
`

MAX_ID=`curl "http://api.twitter.com/1/statuses/user_timeline/$USER.xml?page=1&count=20" | \
grep "<id>" | \
awk -F">" '{print $2}' | \
awk -F"<" '{print $1}' | \
sort -u | \
awk 'BEGIN { \
i=0; \
j=0 \
} \
{ \
j=$1; \
if (j>i) \
i=j \
} \
END { \
print i \
} \
' \
`

if [ $LAST == 0 ];then
if [ $MAX -ge 3200 ];then
COUNTER=3200
else
COUNTER=$MAX
fi

PAGE=$((COUNTER%200))
if [ $PAGE != 0 ];then
PAGE=$((COUNTER/200))
PAGE=$((PAGE+1))
else
PAGE=$((COUNTER/200))
fi

echo "<HTML LANG=UTF8>" > $FILE
echo "<META NAME=\"TWITTES\" CONTENT=\"$MAX\">" >> $FILE
echo "<META NAME=\"ID\" CONTENT=\"$MAX_ID\">" >> $FILE
echo "<HEAD><TITLE>$USER@Twitter Backup Since $DATE</TITLE></HEAD><BODY><H3>" >> $FILE

i=1
while [ $i -le $PAGE ]; do
curl "http://api.twitter.com/1/statuses/user_timeline/$USER.xml?page=$i&count=200" | \
sed -e "/<text>/N;/<\/text>$/s/\n/ /g" -e "/>/s/>/</g" | \
awk -F"<" 'BEGIN{ flag=0 } \
{ \
if($2=="status" && flag==1){ \
flag=0 \
} \
if($2=="created_at" && flag==0){ \
printf "<BR>%s<BR>",$3 \
} \
if($2=="text"){ \
printf "%s<BR>",$3 \
} \
if($2=="user"){ \
flag=1 \
} \
}' | \
sed -e "/+0000/s/+0000//g" >> $FILE
i=$((i+1))
done
echo "</BODY></HTML>" >> $FILE

else
COUNTER=$((MAX-LAST))

if [ $COUNTER != 0 ]; then
PAGE=$((COUNTER%200))

if [ $PAGE != 0 ];then
PAGE=$((COUNTER/200))
PAGE=$((PAGE+1))
else
PAGE=$((COUNTER/200))
fi

echo "<HTML LANG=UTF8>" > $FILE
echo "<META NAME=\"TWITTES\" CONTENT=\"$MAX\">" >> $FILE
echo "<META NAME=\"ID\" CONTENT=\"$MAX_ID\">" >> $FILE
echo "<HEAD><TITLE>$USER@Twitter Backup Since $DATE</TITLE></HEAD><BODY><H3>" >> $FILE

i=1
while [ $i -le $PAGE ]; do
curl "http://api.twitter.com/1/statuses/user_timeline/$USER.xml?
since_id=$LASTID&page=$i&count=200" | \
sed -e "/<text>/N;/<\/text>$/s/\n/ /g" -e "/>/s/>/</g" | \
awk -F"<" 'BEGIN{ flag=0 } \
{ \
if($2=="status" && flag==1){ \
flag=0 \
} \
if($2=="created_at" && flag==0){ \
printf "<BR>%s<BR>",$3 \
} \
if($2=="text"){ \
printf "%s<BR>",$3 \
} \
if($2=="user"){ \
flag=1 \
} \
}' | \
sed -e "/+0000/s/+0000//g" >> $FILE
i=$((i+1))
done

cat $BACKUP_FILE | \
sed -e "/<HTML/d" -e "/META/d" -e "/<HEAD>/d" >> $FILE

fi
fi

if [ $COUNTER == 0 ];then
mv $BACKUP_FILE $FILE
fi


發表回應 發表回應 ( 577預覽 )   |  [ 0 引用 ]   |  permalink   |   ( 3 / 352 )


<<開始 <前一頁 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 下一頁> 最後>>