OSDN Git Service

Add back -q so that jsm doesn't have to see a billion lines of output
[pf3gnuchains/gcc-fork.git] / maintainer-scripts / update_web_docs
index b2cdb70..6c14c68 100755 (executable)
@@ -88,7 +88,7 @@ find $CVSROOT/gcc -name \*.texi,v -print | fgrep -v -f/home/gccadmin/scripts/doc
 
 
 # Checkout all the texi files.
-cvs -Q export -r$RELEASE `cat FILES` gcc/gcc/doc/install.texi2html gcc/gcc/doc/include/texinfo.tex gcc/gcc/ada/xgnatugn.adb gcc/gcc/ada/ug_words
+cvs -Q export -r$RELEASE `cat FILES` gcc/gcc/doc/install.texi2html gcc/gcc/doc/include/texinfo.tex gcc/gcc/ada/xgnatugn.adb gcc/gcc/ada/ug_words gcc/gcc/BASE-VER gcc/gcc/DEV-PHASE
 
 # Build a tarball of the sources.
 tar cf docs-sources.tar gcc
@@ -97,7 +97,7 @@ tar cf docs-sources.tar gcc
 # and fdl.texi.
 includedir=gcc/gcc/doc/include
 
-MANUALS="cpp cppinternals fastjar gcc gccint gcj g77 gnat_ug_unx gnat_ug_vms gnat_ug_vxw gnat_ug_wnt gnat_ugn_unw gnat-style gnat_rm libiberty porting"
+MANUALS="cpp cppinternals fastjar gcc gccint gcj g77 gfortran gnat_ug_unx gnat_ug_vms gnat_ug_vxw gnat_ug_wnt gnat_ugn_unw gnat-style gnat_rm libiberty porting"
 
 # Generate gnat_ugn_unw
 
@@ -107,19 +107,30 @@ if [ -f gcc/gcc/ada/xgnatugn.adb ]; then
      gcc/gcc/ada/ug_words gnat_ugn_unw.texi
 fi
 
-# Now convert the relevant files from texi to HTML and PostScript.
+# Generate gcc-vers.texi.
+(
+   echo "@set version-GCC $(cat gcc/gcc/BASE-VER)"
+   if [ "$(cat gcc/gcc/DEV-PHASE)" = "experimental" ]; then
+      echo "@set DEVELOPMENT"
+   else
+      echo "@clear DEVELOPMENT"
+   fi
+) > $includedir/gcc-vers.texi
+
+# Now convert the relevant files from texi to HTML, PDF and PostScript.
 for file in $MANUALS; do
   filename=`find . -name ${file}.texi`
   if [ "${filename}" ]; then
     makeinfo --html -I ${includedir} -I `dirname ${filename}` ${filename}
     tar cf ${file}-html.tar ${file}/*.html
     texi2dvi -I ${includedir} ${filename} </dev/null && dvips -o ${file}.ps ${file}.dvi
+    texi2pdf -I ${includedir} ${filename} </dev/null
     mkdir -p $DOCSDIR/$file
   fi
 done
 
 # Then build a gzipped copy of each of the resulting .html, .ps and .tar files
-for file in */*.html *.ps *.tar; do
+for file in */*.html *.ps *.pdf *.tar; do
   cat $file | gzip --best > $file.gz
 done
 
@@ -129,12 +140,12 @@ today=`date +%d`
 if test $today = 15; then
   find $DOCSDIR -type f -maxdepth 1 -print | grep -v index.html | xargs rm
   for m in $MANUALS; do
-    rm $DOCSDIR/$m/*.html
+    rm $DOCSDIR/$m/*.html $DOCSDIR/$m/*.html.gz
   done
 fi
 
 # And copy the resulting files to the web server
-for file in */*.html *.ps *.tar; do
+for file in */*.html *.ps *.pdf *.tar; do
   cat $DOCSDIR/$file | 
     sed -e '/^<meta name=generator/d' \
         -e '/^%DVIPSSource:/d' > file1